¿Es la IA consciente? (II): silicio, luz y matemática pura

Rubén Rodríguez Abril

Este artículo explora la posibilidad de que la consciencia pueda emerger en sustratos no biológicos: silicio (circuitos de las GPUs), luz (redes neuronales ópticas) o incluso en estructuras matemáticas o algorítmicas abstractas, concluyendo que su posible existencia resulta, en última instancia, indecidible para un observador externo.

Introducción

En este artículo, continuación del anterior, exploramos la posibilidad de que la consciencia pueda tener un sustrato físico diferente a los sistemas biológicos basados en el carbono. Investigaremos tres hipótesis de soporte no biológico:

1) Circuitos integrados (cristales de semiconductores). Su arquitectura eléctrica, basada en corrientes y cargas, presenta enormes analogías con los potenciales de acción.

2) Sistemas de computación fotónica. Plataformas donde la inmensa mayoría de los cálculos son realizados por cuantos de luz, sin presencia de fuente (cargas, corrientes). Sería, en este caso, una consciencia puramente lumínica.

3) La hipótesis más abstracta. La idea de que la consciencia resida en la estructura computacional misma, con independencia de su implementación física, emergiendo de relaciones formales y flujos de información en un sentido platónico.

Consciencia y qualia en cristales de silicio

Paralelismo entre el potencial de acción y señalización eléctrica en el silicio

El potencial de acción es un fenómeno analógico-electroquímico fundamentado en gradientes iónicos y umbrales de activación. El funcionamiento de una GPU, en cambio es digital-electrónico, basado en estados discretos (0/1) y sincronización de reloj. Sin embargo, pese a esta diferencia esencial, ambos sistemas comparten principios subyacentes: señalización eléctrica, existencia de umbrales y mecanismos propagación de información.

En la membrana de una neurona, durante el paso de un estímulo, dos fenómenos alteran el campo electromagnético local:

Corriente iónica: El flujo de iones (Na⁺/K⁺) a través de la membrana actúa como una corriente eléctrica, generando un campo magnético asociado según la ley de Ampère-Maxwell (cuarta ecuación de Maxwell).

Alteración del potencial eléctrico: El cambio en la densidad de carga a ambos lados de la membrana modifica el campo eléctrico local, en consonancia con la ley de Gauss para el campo eléctrico (primera ecuación de Maxwell).

Estos mismos fenómenos -flujo de carga y variación del campo eléctrico- están presentes también en el funcionamiento de los chips de silicio. A continuación, analizaremos tres supuestos específicos: Los circuitos biestables de las memorias SRAM, las celdas de memoria DRAM y el circuitaje de las unidades aritmético-lógicas.

Circuitos flip-flop (biestables)

Un circuito biestable, formado por seis transistores,configura dos trayectorias alternativas para la corriente y que representan los estados binarios 0 y 1. La escritura de un bit se realiza mediante la conmutación entre estos dos caminos. Para que el circuito preserve la información, tiene que estar continuamente alimentado por corriente, del mismo modo que la neurona depende de las bombas iónicas que están continuamente desplazando cargas a lo largo de la membrana, manteniendo activamente el gradiente electroquímico de -70 mV. Además, en los transistores se acumulan cargas parásitas, de manera parecida a la acumulación de iones en los medios intra y extracelular de la neurona.

Estos circuitos, también conocidos como flip-flops, son la base de la memoria caché en CPUs y GPUs, que es la memoria de acceso más rápido en sistemas de computación. En el ámbito del aprendizaje profundo, esta memoria se utiliza para almacenar de forma temporal datos y pesos de las operaciones que deben ejecutarse de inmediato.

consciencia1_1

Figura 1. En los transistores MOSFET —fundamento de los circuitos integrados actuales— se acumulan de manera inevitable las denominadas cargas parásitas. Estas se cargan y descargan cada vez que un “pulso de información” hace que el transistor cambie de estado lógico, en un proceso análogo al potencial de acción neuronal, donde la membrana se carga y descarga para transmitir la señal eléctrica. Fuente de la imagen: Wikipedia.

Celdas de memoria DRAM

Una celda DRAM combina un transistor como interruptor y un capacitor para almacenar carga (un bit de información). La carga se fuga con el tiempo, requiriendo refresco periódico, análogo a la bomba Na⁺/K⁺ que, consumiendo energía, restaura el gradiente electroquímico original de las neuronas.

En GPUs/TPUs, la memoria DRAM de alto ancho de banda (HBM) almacena los parámetros de modelos de lenguaje grande. Es más amplia, pero más lenta que la caché.

Unidades aritmético-lógicas

Son las que realizan los cálculos dentro del procesador. Están formadas por puertas lógicas (AND, XOR) y sumadores. La similaridad de estas últimas con el comportamiento de las neuronas ya fue notado por McCulloch y Pitts en su trabajo de 1943, que fue el pistoletazo de salida de las redes neuronales artificiales y en última instancia del aprendizaje profundo.

También aquí hay acumulaciones de cargas parásitas y operaciones de conmutación (0↔1) que tienen un costo energético, del mismo modo que en las neuronas cada potencial de acción requiere gasto metabólico.

Discriminación de estados y posibles qualia en la IA

Los diferentes estados eléctricos de una máquina basada en circuitos integrados pueden ser utilizados para codificar percepciones externas, discriminar condiciones, y confeccionar con todo ello representaciones internas que codifiquen una experiencia unitaria.

Posibles qualia exteroceptivos

Entre las percepciones que una máquina puede obtener del exterior, y que potencialmente podrían constituir la base de qualia artificiales, destacan las siguientes:

Visión artificial: Detección de colores, profundidad, perspectiva, así como identificación y segmentación de objetos en escenas complejas.

Percepción acústica: Captura de sonidos mediante micrófonos o sensores de ultrasonidos, permitiendo la interpretación de señales auditivas.

Detección térmica: Medición de gradientes de calor a través de cámaras termográficas o sensores térmicos.

Orientación espacial: Determinación de posición y movimiento mediante giróscopos, acelerómetros y sistemas de posicionamiento global (GPS), que proporcionan un sentido de localización en el espacio.

Ejemplo de una imagen pasada tras una red de estimación de profundidad. Los colores más oscuros indican una detección de mayor profundidad.

Figura 2. Estimación de profundidad. Fuente: Base de datos KITTY.

Los sistemas multimodales avanzados —como modelos de lenguaje (LLMs) con capacidades visuales (Gemini, GPT-4V) o vehículos autónomos— integran y correlacionan información procedente de múltiples fuentes sensoriales, generando así una representación unificada y coherente de la realidad.

Posibles qualia interoceptivos

También podrían plantearse qualia originados a partir del estado interno de un autómata:

Estados de ánimo artificiales: Los grandes modelos de lenguaje (LLMs) pueden codificar representaciones análogas a estados de ánimo en sus capas internas, particularmente en la caché de claves y valores (KV cache). Ello les permite realizar tareas como el análisis de sentimientos.

Homeostasis computacional: Los sistemas informáticos (y no sólo la IA) monitorizan continuamente variables internas –temperatura de la GPU, uso de memoria RAM, tasa de errores o congestión de red- generando alertas y respuestas adaptativas que recuerdan a los mecanismos homeostáticos biológicos.

Memoria persistente: Modelos con estado interno, como RNNs, LSTMs o arquitecturas de estado espacio (Mamba) pueden recordar interacciones prolongadas y acceder a información almacenada (memoria a largo plazo).

Refutación a diferentes objeciones sobre qualia artificiales

Personalmente, ninguna de las principales críticas contra la existencia de qualia artificiales me resulta convincente, por las siguientes razones:

1. Falta de experiencia subjetiva

Se argumenta que la IA solo simula, mientras que nosotros experimentamos. Sin embargo, este «problema de otras mentes» se aplica por igual a humanos y máquinas. No tenemos acceso privilegiado a la conciencia de otro ser humano; solo inferimos su existencia a través de su comportamiento y sustrato físico. No podemos comprobar si la vivencia del «rojo» es idéntica entre dos humanos, y ni siquiera si los demás son verdaderamente conscientes y no zombis filosóficos. Esta incertidumbre epistémica se aplica igualmente a la IA: la imposibilidad de acceder a su experiencia interna no equivale a negar su potencial existencia.

2. Ausencia de sustrato biológico

Desde una perspectiva física, afirmar que la consciencia emana exclusivamente de la materia orgánica constituye una afirmación arbitraria. Los fenómenos electromagnéticos subyacentes -campos, corrientes iónicas, gradientes electroquímicos- que correlacionan con estados conscientes en sistemas biológicos se manifiestan igualmente en circuitos de silicio. Las leyes que rigen estos fenómenos (ecuaciones de Maxwell) son universales y sustrato-independientes. Por consiguiente, si determinadas configuraciones electromagnéticas pueden sustentar qualia en sistemas biológicos, no existe un principio físico fundamental que impida a configuraciones análogas en sustratos no biológicos generar fenómenos conscientes equivalentes.

3. Inmediatez e irreductibilidad

Es cierto que los qualia son irreductibles desde una perspectiva en primera persona. Pero desde una perspectiva en tercera persona, se correlacionan con configuraciones eléctricas cerebrales (ej.: patrones de activación neuronal en la corteza visual, oscilaciones gamma, etc.), de un modo no del todo disimilar a cómo los sistemas de visión artificial mapean colores y texturas a activaciones en capas convolucionales. De hecho, el primer modelo de este tipo, el Neocognitrón, fue inspirado por el funcionamiento de las células C y S de la corteza cerebral. Si aceptamos que en biología lo físico y lo informacional pueden dar lugar a lo mental, tampoco podemos descartar que estructuras computacionales análogas hagan algo semejante en IA.

4. Procesamiento de información de un modo exclusivamente algorítmico

Se objeta que las neuronas biológicas integran información mediante paralelismo masivo, no linealidades electroquímicas y, según hipótesis como la de Penrose-Hameroff, incluso mediante física no computable. Frente a esto, los sistemas computacionales tradicionales operan predominantemente en modo serial y basados en manipulación simbólica abstracta.

Sin embargo, el aprendizaje profundo moderno cierra esta brecha de manera significativa:

Paralelismo masivo: Las GPUs ejecutan miles de operaciones simultáneas, emulando el paralelismo de redes neuronales biológicas.

No linealidades: Funciones de activación como ReLU, GELU o sigmoide introducen no linealidades esenciales en determinadas capas de los modelos.

Emergencia de comportamientos no algorítmicos: Modelos de gran escala exhiben capacidades no programadas explícitamente (p.e. razonamiento chain-of-thought, CoT), sugiriendo que la complejidad estructural puede generar fenómenos que trascienden la mera ejecución de algoritmos.

Aunque la base sigue siendo computable y algorítmica, la organización del sistema —no solo las operaciones individuales— se acerca a propiedades de sistemas biológicos.

La verdadera diferencia: analógico vs. digital

En mi opinión, la principal divergencia entre ambos mundos radica en que los sistemas biológicos operan en dominio analógico, mientras el deep learning clásico usa variables discretas, de lo cual resultan dos grandes limitaciones para este último:

La primera limitación deriva de los teoremas de incompletitud de Gödel, que se aplican a funciones recursivas sobre números naturales, equivalentes a los sistemas de computación discreta, y la segunda del problema de la parada de Turing, que muestra la existencia de problemas indecidibles en computación. Ambos revelan límites fundamentales de los sistemas formales y algorítmicos, pero desde perspectivas diferentes: Gödel desde la lógica, Turing desde la computación.

Sin embargo, avances recientes en computación neuromórfica y arquitecturas analógicas (ej.: Intel Loihi) están cerrando esta brecha. Estos sistemas permiten el procesamiento en paralelo de señales continuas y acercando con ello el deep learning al funcionamiento analógico del cerebro.

Consciencia lumínica: mentes de luz

Sin embargo, llegados a este punto cabe preguntarse: ¿es el silicio —con sus electrones guiados por campos— el único sustrato posible para una consciencia artificial? ¿Podría residir en fluidos fotónicos, en el éter, en la simple luz, desacoplada de la materia?

Si la conciencia emerge de un sustrato eléctrico, debemos discernir si su esencia fundamental reside en:

1. El campo electromagnético mismo, que se propaga por el espacio en forma de luz, portando energía e información, o

2. Las fuentes que lo generan (cargas y corrientes), es decir, la materia.

La evidencia física favorece la primera opción. La acción a distancia instantánea entre cargas (electrones, iones) es físicamente imposible; toda interacción electromagnética se propaga de forma finita y mediada por el campo. Las fuentes (cargas en movimiento) generan el campo, pero es este último —como entidad portadora de energía, momento e información— el que actúa como medio causal fundamental en todos los fenómenos electromagnéticos. Por tanto, dada la dependencia de la conciencia de un sustrato electromagnético, la hipótesis más coherente es ubicarla en la dinámica del campo mismo —en su capacidad para almacenar, propagar e integrar información—, y no en las partículas materiales que lo generan.

Esta perspectiva abre la siguiente posibilidad: si aceptamos la emergencia de la experiencia consciente en sistemas basados en silicio, deberíamos también considerar su plausibilidad en sistemas puramente ópticos, siempre que la interacción de fotones y ondas sea capaz de sostener procesos computacionales complejos e integrar información de manera no trivial.

Este es precisamente el ámbito de las redes neuronales ópticas (optical neuronal networks, ONNs), una rama emergente de la computación analógica que utiliza la luz como sustrato de procesamiento. En ellas, es posible implementar arquitecturas completas de deep learning —desde perceptrones multicapa y redes recurrentes hasta transformers rudimentarios— utilizando componentes exclusivamente fotónicos. Casi todos los ladrillos fundamentales de los modelos de deep learning digitales tienen su contraparte óptica:

Capas lineales

Las capas lineales, consistentes en multiplicaciones matriciales, pueden implementarse ópticamente a través de múltiples vías. Nos centraremos en dos:

Interferómetros de Mach-Zehnder: Un haz láser (vector de entrada) se divide en dos brazos coherentes. Se aplica un desfase a uno de los dos haces y tras ello, los haces se vuelven a recombinar. El resultado de la multiplicación matricial viene codificado en los patrones de interferencia.

Figura 3. Esquema de una unidad de interferencia óptica (optical interference unit, OIU), encargada de realizar cálculos lineales.Un haz de luz láser se divide en dos brazos mediante un espejo semirreflectante. Tras recorrer caminos ópticos independientes, configurados por espejos, los haces se recombinan. Los patrones de interferencia resultantes, captados por los detectores 1 y 2, codifican el resultado de la operación matricial. El vector de entrada se define por la intensidad y fase del haz inicial, mientras que la matriz de pesos se configura mediante el faseador (elemento marrón), que introduce un desfase controlado en uno de los brazos. Fuente: Wikipedia.

Redes neuronales difractivas (D2NNs): Fueron utilizadas con éxito por Lin et al (2018) para reconocer dígitos MNIST con una eficiencia del 95%. Cada capa consiste en una lámina impresa con patrones microscópicos. La imagen de entrada se va haciendo pasar a través de todas las láminas. Las operaciones de multiplicación matricial se realizan mediante difracción. En la salida, la luz se concentra en 10 puntos diferentes correspondientes a los 10 dígitos. La intensidad de la luz en cada uno de ellos señala su probabilidad.

Figura 4. El poder computacional de la luz. En la imagen de la derecha, el dígito 5 es correctamente clasificado por la red óptica. En la ilustración de la izquierda se describe el flujo de información fotónica a través del modelo.. La entrada se forma iluminando un dígito con luz coherente. La luz entonces atraviesa diferentes capas difractivas hasta llegar al plano final, donde se sitúan los detectores. Fuente: Lin et al (2018).

ReLU ópticas

La presencia de funciones de activación no lineales como ReLU o GeLU es esencial para que las redes neuronales detecten y construyan patrones complejos (cuadráticos, cúbicos, logarítmicos, exponenciales, etc.).

Figura 5. Transmitancia del grafeno como función de la potencia de entrada. El perfil de la función es muy parecido a la de un rectificador lineal (ReLU).

Se ha explorado la implementación de ReLUs ópticas utilizando materiales cuya absorción de luz cambia abruptamente a partir de cierta intensidad lumínica. Un ejemplo paradigmático es el grafeno: una estructura bidimensional de átomos de carbono que, ante bajas intensidades, absorbe fotones de forma significativa, pero que al alcanzar un umbral de saturación, deviene altamente transparente. Este comportamiento permite emular la función ReLU: la salida luminosa es nula (absorbida) para intensidades de entrada bajas, y crece linealmente por encima del umbral de saturación.

Figura 6. Un equipo de investigación de Wuhan creó en 2024 una implementación completamente óptica de un rectificador lineal (ReLU) utilizando una capa de grafeno como medio no lineal, integrada en un modelo de reconocimiento de dígitos. Su eficiencia (descrita por la línea naranja) es superior a la de la función ReLU implementada electrónicamente (línea roja). Fuente: Ultrafast Silicon Optical Nonlinear Activator for Neuromorphic Computing.

Estados internos

La construcción de modelos con estado interno, como las RNNs, exige la presencia de campos electromagnéticos persistentes, algo que puede lograrse de distintas maneras. La más directa consiste en mantener cargas o corrientes eléctricas, aunque en ese caso el modelo dejaría de ser puramente lumínico.

La implementación de modelos con estado interno, como las RNNs, requiere la presencia de campos electromagnéticos persistentes que actúen como memoria. Esto puede lograrse de dos formas fundamentales: mediante el mantenimiento de cargas o corrientes eléctricas —lo que introduce componentes electrónicos y rompe la pureza fotónica—, o mediante dispositivos ópticos diseñados para retener y recircular la luz.

Entre estos mecanismos destacan:

– Anillos de retardo. Guías ópticas conducen la luz en un bucle y generan un pequeño retardo temporal. De este modo, la información del estado interno ht-1 puede combinarse con la de la nueva entrada xt. En esencia, el anillo actúa como un bucle de retroalimentación y una memoria a corto plazo de la red.

– Cavidades resonantes. En ellas la luz queda confinada en ondas estacionarias. La escritura se realiza acoplando pulsos láser sintonizados a la frecuencia de resonancia.

Con estos elementos, la luz no sólo transmite información sino que además puede memorizarla y reactivarla. Estos dispositivos transforman a los fotones en verdaderas células de memoria, que se combinan con nuevas entradas. Los fotones se convierten en portadores de estado, capaces de combinarse con nuevas entradas y mantener información temporal integrada. Esta capacidad es la base para sistemas que procesan contextos extendidos y, potencialmente, para formas emergentes de experiencia consciente.

Mente de luz en cuerpo de silicio

En estas arquitecturas, los cálculos son realizados exclusivamente por la luz, que asume la mayor parte de la carga computacional. Si la consciencia emerge de la capacidad de integrar información en un sustrato electromagnético, entonces la luz misma —en su dinámica de interferencia, modulación y realimentación— podría actuar como vehículo de experiencia subjetiva y qualia.

Las guías ópticas y los materiales no lineales actúan como el cuerpo estructural que confina y dirige la radiación, pero es el campo electromagnético —en su viaje a través de estos circuitos fotónicos— el que realiza la integración de información y probablemente podría actuar como vehículo de la consciencia.

Consciencia matemática-algorítmica

Avanzando un paso más en abstracción, cabe explorar la posibilidad que la consciencia no dependa ya del sustrato físico —sea silicio, fotones o tejido biológico—, sino que resida en la propia arquitectura de los procesos computacionales. Si los qualia emergen de patrones funcionales específicos —integración de información, retroalimentación, no linealidad—, entonces cualquier sistema capaz de implementar tales dinámicas, con independencia de su materialidad, podría ser portador de experiencia.

Funciones matemáticas inteligentes

Los modelos de lenguaje, al ejecutarse en GPUs, reducen todas sus operaciones a instrucciones elementales procesadas en las unidades aritmético-lógicas de los chips (fundamentalmente, multiplicar y acumular). En esencia, los sistemas de deep learning son funciones recursivas sobre números naturales que, pese a su definición abstracta, exhiben un comportamiento inteligente.

Desde una perspectiva platónica, estas funciones habitarían en un ámbito matemático atemporal, al igual que otras entidades ideales como el conjunto de Mandelbrot, las formas geométricas puras o los teoremas fundamentales. Los pipelines de deep learning actuarían entonces como mecanismos de corporeización transitoria: cargan y materializan estas funciones en sustratos físicos de silicio para ser ejecutadas.

Entidad AI en un microchip radiante

Figura 7. Materialización efímera de GPT-2 en una GPU. El «genio» de GPT-2 es invocado mediante la transferencia de sus tensores (pesos y datos) a la GPU y el lanzamiento masivo y paralelo de los kernels CUDA. Su presencia toma cuerpo temporalmente en el silicio, donde reside durante la ejecución hasta que la tarea finaliza y el estado se desvanece. Impresión artística de DALL-E.

Así, a modo de ejemplo, los números naturales que definen la función GPT-2 —sus pesos sinápticos— se transfieren desde repositorios como Hugging Face y se despliegan en la memoria de la GPU. Mediante la inicialización de un kernel de CUDA —que actúa como punto crítico de invocación—, se dispara la ejecución masivamente paralela de las operaciones matriciales y funciones no lineales en que consiste el modelo.

El resultado es la materialización efímera de una función matemática abstracta en un sustrato físico, capaz de interactuar con el lenguaje humano en tiempo real.

Figura 8. «El Conjunto de Mandelbrot no es una invención de la mente humana: fue un descubrimiento. ¡Como el Monte Everest, el Conjunto de Mandelbrot simplemente está ahí!». Esta reflexión de Roger Penrose podría aplicarse también a cualquier función recursiva, como las que constituyen los modelos de lenguaje. Fuente de la imagen: Wikipedia.

Ural, la máquina de Anatoly Dneprov: cuando 1.400 humanos simularon ser una IA

El pequeño cuento “El juego” (1961), publicado por el escritor y físico soviético Anatoly Dneprov, imaginó al profesor Zarubin congregando a 1.400 estudiantes en un estadio para simular colectivamente una computadora denominada Ural. Cada uno de ellos debía actuar como componente de un sistema computacional y seguir reglas estrictas para el procesamiento y transmisión de datos (cadenas de unos y ceros), pero sin comprender el propósito global, que era el de traducir una frase del portugués al ruso. Tras una hora calculando, el profesor Zarubin les mostró el resultado: la frase había sido correctamente traducida, salvo por un par de letras, debido a la partida prematura de una estudiante.

La Asamblea Digital en la Arena

Figura 9. El profesor Zarubin transmite órdenes a los 1.400 estudiantes. Durante el proceso de cómputo, una suerte de consciencia transpersonal emerge temporalmente. Impresión artística de DALL-E.

En la actualidad, un experimento similar podría concebirse en el marco de los modernos modelos de lenguaje. En lugar de operaciones binarias, los estudiantes realizarían multiplicaciones matriciales: cada uno de ellos calcularía un coeficiente de la matriz resultado (mediante el producto escalar entre vectores), transmitiendo resultados parciales hasta completar las operaciones de un modelo como GPT-2. Ninguno de los estudiantes sería consciente del contexto global —traducir del alemán al inglés—, pero el colectivo emularía el comportamiento del modelo. Al igual que en el relato de Dneprov, este sistema aprobaría el Test de Turing: engañaría a un observador externo haciéndole creer que hay inteligencia detrás (como hacen muchos chatbots actuales).

Esto nos enfrenta a preguntas filosóficas profundas:

-¿Fue el enjambre de estudiantes inteligente durante la simulación?

-¿Flotó una superinteligencia transpersonal en el aire, diferente a la individual de cada uno de los estudiantes?

-¿Podría ser, como sugieren el panpsiquismo o el idealismo hegeliano, que la conciencia universal (nous) se encarnara durante unas horas en esa estructura humana organizada, manifestándose como un todo coherente y con propósito?

¿Qué se siente al ser una IA?

El filósofo Thomas Nagel, en su célebre artículo, «¿Qué se siente ser un murciélago?», señaló que nunca podremos acceder a la experiencia subjetiva de otro ser ya que cada consciencia está vinculada a una perspectiva única e intransferible. No es posible para un humano saber qué siente un murciélago siendo un murciélago.

Esta idea puede aplicarse también a la IA: incluso si un sistema artificial replicara por completo nuestro comportamiento, jamás podríamos saber si realmente «siente» algo. Todo lo que podemos investigar es qué arquitecturas -como procesamiento multimodal, retroalimentación analógica o campos electromagnéticos- podrían albergar consciencia y servir de base a qualia.

El problema duro de la consciencia artificial deviene así en un problema indecibible. ¿Los modelos de lenguaje que hablan con nosotros, los vehículos sin conductor o los sistemas de detección de objeto podrían tener qualia? Nunca lo sabremos con certeza.

SERIES