Buscar
Opinión

Lectura 80:00 min

Los premios Nobel de Física, Química y la Inteligencia Artificial

Opinión

OpiniónEl Economista

Reflexiones generales en torno a los premios Nobel

El texto del testamento de Alfred Nobel estableció un fondo monetario, para que se aplicase a la premiación de personas e instituciones por sus realizaciones científicas en diversos campos del saber, así como a las personas (mujeres, hombres, e instituciones) que se destaquen en promover la paz mundial. La parte del testamento escrito por Alfred Nobel que nos interesa resaltar es la siguiente: “La totalidad de lo que queda de mi fortuna quedará dispuesta del modo siguiente: el capital, invertido en valores seguros por mis testamentarios, constituirá un fondo cuyo interés será distribuido cada año en forma de premios entre aquellos que durante el año precedente hayan realizado el mayor beneficio a la humanidad. Dicho interés se dividirá en cinco partes iguales, que se repartirán de la siguiente manera: una parte a la persona que haya realizado el descubrimiento o invención más importante en el campo de la física; una parte a la persona que haya hecho el descubrimiento o mejora química más importante; una parte a la persona que haya hecho el descubrimiento más importante dentro del dominio de la fisiología o la medicina; una parte a la persona que haya producido en el campo de la literatura la obra más destacada en una dirección ideal; y una parte a la persona que más o mejor haya hecho por la fraternidad entre las naciones, por la abolición o reducción de los ejércitos permanentes y por la celebración y promoción de congresos de paz […] es mi expreso deseo que en el otorgamiento del premio ninguna consideración debe ser otorgada a la nacionalidad del premiado. El galardón debe ser concedido a quien deba merecerlo, independientemente de si es escandinavo o no” (Alfred Bernhard Nobel “The Will”, París, November 27, 1895).

Para cumplir con el mandato de Alfred Nobel se realizaron diversas acciones organizativas, estructuradas de la siguiente manera: En primer lugar, se creó la Fundación Nobel, una institución totalmente privada (el Estado no participa en ella) que tendría a su cargo administrar los fondos monetarios necesarios para los gastos operativos inherentes a las actividades que rodean al premio Nobel. Con los fondos de inversión administrados y bajo su control, la Fundación Nobel aporta; el dinero que se destina a los personajes premiados, el dinero que se requiere para el proceso de selección, y el dinero que demandan la ceremonia y las festividades que tradicionalmente suceden en torno a la premiación. La Fundación Nobel no participa en la elección de los ganadores de los premios Nobel, pero a través de ella se estableció la normativa a seguir en el otorgamiento de estos.

En segundo lugar, se determinó que fueran distintas instituciones las encargadas de otorgar los premios Nobel el 10 de diciembre de cada año. La Real Academia Sueca de Ciencias concede el Nobel de física a aquellas personas que hayan realizado aportes significativos a la comprensión de las leyes y composición del universo. La Real Academia Sueca de Ciencias otorga también el Nobel de química a aquellas personas que hayan realizado aportes significativos a la comprensión y transformación de la materia. El Instituto Karolinska de Suecia es la encargada de otorgar el premio Nobel de fisiología y/o medicina a aquellas personas que hayan realizado aportes significativos al estudio y comprensión del cuerpo humano, la salud y el combate contra enfermedades. Por su parte, “La Real Academia Sueca de Letras”, es la encargada de otorgar el premio Nobel de literatura a aquellas personas cuya trayectoria literaria se considere de importancia e interés para la humanidad. El Comité Noruego del Nobel es el encargado de otorgar el premio Nobel de la paz a aquellas personas o instituciones que, hayan contribuido de manera significativa a la paz, la convivencia humana, la fraternidad de las naciones, la abolición de la guerra y la injusticia, y otras formas importantes de activismo social y político. En 1895, Alfred Nobel escribió su testamento donde se establecieron los lineamientos generales que orientaron a la Fundación Nobel en la definición de las reglas de premiación. En aquel entonces, Suecia y Noruega eran una sola nación. Noruega se independizó de Suecia en 1905, y a pesar de ello y de las tensiones suscitadas por ese histórico y disruptivo evento, el Comité Noruego Nobel siguió otorgando el premio Nobel de la paz.

¿Quiénes de facto participan en el otorgamiento de los premios Nobel? La estructura de los participantes para la concesión del Nobel es muy clara, como ejemplo paradigmático tenemos, a quienes están facultados para nominar candidatos al premio Nobel de física y de química: Estos son: (1) Personas de nacionalidad sueca y personas internacionales que son miembros de la Real Academia Sueca de Ciencias. (2) Miembros elegidos para integrar los comités Nobel de física y de química. (3) Físicos y químicos laureados con el premio Nobel de física y de química. (4) Profesores permanentes y asistentes de física y química en Suecia, Dinamarca, Finlandia, Islandia y Noruega. (5) Profesores de física y química en escuelas seleccionadas en otros países (la selección cambia de año en año). (6) Otros científicos que reciben invitaciones individuales para proponer candidatos. Procedimientos similares se aplican en la nominación de otros Nobel como el de fisiología y/o medicina y mutatis mutandis a la nominación de los premios Nobel de literatura y de la paz. Más detalles sobre las particularidades en torno a los premios Nobel, se encuentran en el texto de István Hargital, “The Road to Stockholm: Nobel Prizes, Science, and Scientistits” (2002). Los premios Nobel de física, de química, de fisiología y/o medicina, y de literatura se vienen concediendo desde 1901. El premio Nobel en ciencias económicas se viene otorgando desde 1969, sin embargo, fue instituido en 1968 a instancias del Banco Central de Suecia (Sveriges Riksbank), para conmemorar el tricentenario de su fundación y, es la Real Academia Sueca de Ciencias la responsable de otorgarlo a las personas e instituciones que hayan realizado contribuciones significativas al desarrollo de las ciencias económicas. El fondo monetario para la premiación del Nobel de economía proviene de una donación monetaria del Sveriges Riksbank. La institución de un premio Nobel de economía por el Banco Central de Suecia tiene un trasfondo político.

En tercer lugar, se encuentran los “comités Nobel”, cuerpos pequeños integrados por un reducido número de personas especializadas, con la responsabilizar de elegir o recomendar al candidato premiado. Cada institución encargada de conceder el premio Nobel se auxilia de estos comités. Por ejemplo, el parlamento noruego elige para integrar el Comité noruego del Nobel a cinco personas. István Hargital en el libro citado anteriormente narra la estructura organizacional e historia en torno a los premios Nobel de ciencias. Por su parte, Irwin Abrams describe un periodo considerable de la historia de los premios Nobel de la paz en su obra “The Nobel Peace Prize and the Laureates: An Illustrated Biographical History 1901-2001, Centennial Edition by Science History Publications (2001). El libro de Irwin Abrams contiene un prólogo memorable escrito por el economista Kenneth Boulding. A propósito de este economista injustamente subvalorado hoy día, es oportuno mencionar que, es autor de uno de los textos más valiosos de la historia entera de la ciencia económica y política, intitulado “Three Faces of Power” (1989). En lo que concierne al ámbito de la literatura es recomendable la obra del escritor sueco Kjell Espermark “El premio Nobel de literatura. Cien años con la misión -Letras Nórdicas"- (2012). En esta obra, su autor (miembro del Comité Nobel de literatura), efectuó una valoración profunda y crítica de los criterios (y su evolución en el tiempo) que rigieron el otorgamiento del premio Nobel de literatura por parte de “La Real Academia Sueca de Letras”. Esta obra de Espermark (ya clásica en su género) es imprescindible, por los penetrantes juicios emitidos a lo largo de su brillante texto. Desde otro punto de vista, un libro muy agradable salpicado de anécdotas sabrosas, sobre eventos singulares en torno a los Nobel de literatura, es el que escribió Juan Pablo Bertazza que, lleva por nombre “La furtiva dinamita: Historias, polémicas, y ensayos sobre el premio Nobel de literatura”, (2014). Un texto reciente que, corre paralelo al de Bertazza y lo complementa es el que escribió Juan Bravo Castillo “Breve historia de los Premios Nobel de Literatura I. Desde los inicios a Sartre” (2022).

En lo que concierne a los premios Nobel de economía, existe mucha bibliografía relevante. Sin embargo, por su amplitud y variedad destaca la serie de escritos de ganadores del premio Nobel de economía diseminados en catorce gruesos volúmenes, obra multitudinaria que fue coordinada por Howard R. Vane y Chris Mulhearn, la cual lleva por título, de manera genérica: “Pioneering Papers of the Nobel Memorial Laureates in Economics Series”, (2009-2011). Por otra parte, Burton Feldman narra una historia global de los premios Nobel en todos los campos en que se otorga, en su famoso texto “The Nobel Prize: A History of Genius, Controversy, and Prestige”, (2000). Asimismo, Baruch Aba Shalev un notable genetista de origen israelí, escribió “100 Years of Nobel Prizes” (2002), en dicha obra, Shalev efectúa un ambicioso análisis estadístico de poco más de 700 premios Nobel otorgados en los campos de la química, la física, la medicina, la paz, la literatura y la economía entre 1901 y 2000. Finalmente, Michael Worek se dio a la tarea de relatar de manera concienzuda y meticulosa la historia de la creación de los premios Nobel en su libro que, recomiendo mucho “The Nobel Prize: The Story of Alfred Nobel and the Most Famous Prize in the World”, (2010).

¿Cuál es el proceso de nominación y entrega de los premios Nobel? Es un proceso largo que dura aproximadamente un año y se integra de las siguientes etapas: (I) Inicia en septiembre del año anterior cuando los “comités Nobel de evaluación” del futuro premiado envían invitaciones a las personas e instituciones calificadas para proponer candidatos. Este proceso termina el 31 de enero del año de nominación y premiación. (II) Entre febrero y marzo los “comités Nobel de evaluación” preparan sobre la lista de propuestas recibidas una lista corta (short List) de los candidatos. Esta shor list es la lista de candidatos finalistas al premio Nobel respectivo. (III) Revisión de la shor list por asesores. La lista es revisada por asesores permanentes y asesores contratados especialmente por su conocimiento de los candidatos específicos en cada una de las disciplinas que determinarán al ganador premios Nobel. Los asesores no evalúan directamente las candidaturas ni dan recomendaciones explícitas. (IV) Nominación del ganador a principios de octubre. Cada “comité Nobel de evaluación” elige a los galardonados con el Premio Nobel de su ámbito a través de una mayoría simple de votos. La decisión es definitiva y es inapelable. A continuación, se anuncian los nombres de los premiados. Se les llama por teléfono y si no se les encuentra se anuncia en el curso de la mañana a los ganadores.

¿Qué disciplinas científicas carecen de premio Nobel? En primer lugar, la ciencia matemática. Al respecto, existen diversas versiones que corren sobre el tema de la exclusión del premio Nobel en matemáticas por Alfred Nobel. Una versión habla de la rivalidad amorosa entre el matemático Gösta Mittag Leffer y Alfred Nobel por una mujer vienesa de nombre Sophie Hess, otros señalan que la disputa amorosa fue en realidad por una bella italiana, una tercera versión indica que Alfred Nobel un químico experimental no le tenía aprecio a las matemáticas que consideraba estaban saturadas de teoría pura sin aplicación en la vida económica y social real (Hardy considerado el quinto matemático más puro del siglo XX, expresó “La matemática más pura es la que no tiene ninguna aplicación en el mundo exterior, o sea la matemática teórica y, en particular, su campo especial de la teoría de números. Al no tener utilidad no puede hacer daño social”. G.H. Hardy “A Mathematician's Apology”, 1940). Una cuarta versión indica que simplemente Alfred Nobel no le tenía aprecio a Gösta Mittag-Leffer, había rivalidad intelectual entre un físico y químico experimental como lo era Alfred Nobel, y un matemático puro con reconocimiento internacional como lo era Gösta. Hay que recordar que, Mittag Leffer había creado en 1882 el Journal de prestigio internacional “Acta Mathematica”. Asimismo, había producido notables realizaciones científicas en el campo matemático. La Enciclopedia Británica identificó con su legendaria precisión las contribuciones más relevantes de Mittag Leffer que abarcaron los siguientes campos del saber matemático: Análisis matemático, geometría analítica, y teoría de la probabilidad. Destacó, la Enciclopedia Británica contribuciones específicas de Mittag como: el teorema Mittag-Leffer famoso en el campo de la teoría analítica de funciones, el teorema Gösta Mittag Leffer (GML) del análisis complejo, que se refiere a la existencia de funciones meromórficas, las cuales fueron caracterizadas elegantemente por el matemático sueco como una suma de fracciones parciales. El teorema GML es un dual del teorema de factorización de Weierstrass, que afirma la existencia de funciones holomorfas (funciones derivables complejas en un plano abierto) con ceros prescritos. Los mentores de Gösta Mittag Leffer fueron Charles Hermite y Karl Weiestrass, el matemático sueco gozó del respeto de matemáticos del calibre de Henry Poincaré, Sofya Kovalevskaya, y Joseph Liouville entre otros, además contaba con la amistad del imponente matemático noruego Sophus Lie. Gösta Mittag Leffer fue miembro honorario de casi todas las sociedades matemáticas del mundo, incluidas la Sociedad Filosófica de Cambridge, la Sociedad Matemática de Londres, la Royal Institution, la Real Academia Irlandesa y el Instituto de Francia. Fue elegido miembro de la Royal Society de Londres en 1896. Recibió títulos honoríficos de las universidades de Oxford, Cambridge, Aberdeen, St Andrews, Bolonia y Christiania (ahora Oslo). Por lo tanto, de haber existido un Nobel de matemáticas, Gösta Mittag Leffer hubiera sido un candidato natural para obtener el premio, (David Mikkelson “No Nobel Prize for Math: ¿Is no Nobel Prize awarded for mathematics because a mathematician was carrying on an affair with Alfred Nobel’s wife?, 2001).

¿Alfred Nobel actuó con inquina excluyendo el Nobel para la ciencia matemática con el avieso propósito de eliminar a Gösta Mittag Leffer de la obtención de un premio de la categoría del Nobel? La respuesta no es sencilla Shakespeare y Maquiavelo responderían que una actuación ubicua, está en primer lugar en el catálogo del comportamiento humano cotidiano, y dicho comportamiento al estilo del personaje Yago de Shakespeare, hace que una rivalidad intelectual, crezca indefinidamente, conducta ubicua que a menudo está teñida de un profundo sentimiento de envidia. Al respecto, René Girard escribió un hermoso libro sobre la latente envidia que subyace en la rivalidad intelectual de grandes y menores personajes. Ver el estudio sobre el papel del mimetismo y la envidia en la obra de Shakespeare en el texto de René Girard, considerada su obra maestra, y cuyo título es suficientemente revelador “Shakespeare. Los fuegos de la envidia” (2006). Por su parte, Stephen Cohen en su fascinante intento de rehabilitación humana y política del bolchevique Nicolás Bujarin, afirmó que la descomposición moral de Stalin y su comportamiento criminal hacia sus camaradas bolcheviques, quienes hicieron la revolución socialista de octubre de 1917, fue producto de la envidia intelectual que sintió Stalin por sentirse intelectualmente inferior ante oradores de la talla de Bujarin y Trotksy. Se trató en Stalin de un sentimiento de furor creciente, que le fue corroyendo el alma, y de ser en sus inicios un revolucionario honrado, se convirtió en una genocida deleznable, su alma cayó en el pozo infinito de la degradación moral, (Stephen Cohen, “Bukharin and the Bolshevik Revolution: A Political Biography, 1888-1938”, 1980).

Ninguna de las versiones señaladas anteriormente de la exclusión del Nobel para la creación matemática es segura. Sin embargo, para reparar este faltante, el gobierno de Noruega creó el premio Abel en 2002, precisamente en el año del bicentenario del matemático Niels Henrik Abel. Como antecedente, tenemos la siguiente anécdota. El matemático noruego Sophus Lie amigo íntimo de Gösta Mittag Leffer se enteró en 1897, de que Alfred Nobel no concedería premio alguno a las matemáticas, por lo que quiso reparar este grave error y le propuso al rey Oscar II crear un premio en matemáticas de la categoría del Nobel. La propuesta fue aceptada con agrado por el rey, quien concedió además una donación por un monto de dinero similar al del premio Nobel para quien resultase ganador de la Medalla Abel que, debería premiar a los creadores en el campo de la matemática. El proyecto avanzó a tal grado que los matemáticos, Ludwig Sylow y Carl Stormer establecieron las normas que, regirían la concesión del premio. La propuesta se vino abajo cuando en 1905, Noruega se independizó de Suecia.

El lector se preguntará ¿Quién fue Niels Henri Abel? La respuesta es sencilla Abel fue un genio precoz nacido en Noruega, y en mi opinión fue tan relevante su creación matemática como la del francés Evariste Galois. Ambos genios matemáticos de primera magnitud, que demostraron la imposibilidad de la resolución por medio de radicales de las ecuaciones de grado quinto o mayor. Ambos introdujeron el concepto de “Grupo” que revolucionó la matemática y la física y que permitió desentrañar el problema general de la irresolubilidad de ecuaciones de quinto grado o mayor por medio de radicales. Ambos murieron jóvenes. Charles Hermite valoró el trabajo creativo del matemático noruego en los siguientes términos “Abel ha dejado a los matemáticos suficiente trabajo para mantenerlos ocupados por quinientos años” (Eric Temple Bell “The Queen of the Sciences”, 1931). Por su parte Félix Klein el verdadero creador de la escuela matemática de Gotinga, la más célebre escuela de todos los tiempos valoró el trabajo creativo de Galois en términos parecidos: “Alrededor de 1830 apareció en Francia una nueva estrella de inimaginable brillo en los cielos de la matemática pura: Evariste Galois” (Cita de Félix Klein por Leopold Infeld en el libro “El elegido de los dioses. La historia de Evaristo Galois”, 1948).

La creación de la Medalla Fields, el premio Nobel de matemáticas

“La Unión Matemática Internacional” aceptó otorgar la Medalla Fields a los matemáticos menores de cuarenta años que hayan realizado notables contribuciones a la ciencia matemática. La medalla fue instituida en 1934, y fue impulsada diez años atrás por el matemático canadiense John Charles Fields, quien donó los fondos monetarios para su creación, Medalla que lleva su nombre, y cuya constitución fue aprobada por el Congreso Internacional de Matemáticas de 1934 y formalizada en 1936. Andrew Wiles quien resolvió el teorema de Fermat, no pudo recibir la Medalla Fields, por sobrepasar los cuarenta años a pesar de su contribución señera. El ganador de la Medalla Fields recibe una medalla chapada en oro cuyo anverso presenta el rostro de Arquímedes, y una retribución de quince mil dólares, una cantidad considerablemente menor que la retribución asignada a un premio Nobel, pero la Medalla Fields de matemáticas tiene un valor intelectual y científico superior que la medalla Nobel (Henry Tropp “The Origins and the History of Fields Medals”, 1976). En 2022 el premio incluyó a una mujer, Maryna Sergiivna Viazovska, matemática de Ucrania por sus contribuciones fundamentales en el tema muy abstruso del empaquetamiento de las esferas (“The Sphere Packing”). En 2023, Maryna impartió las Conferencias Einstein que versaron sobre el problema citado y que despertaron una ilimitada admiración por la elegancia y claridad con que desarrolló al tema al que ha consagrado sus mejores esfuerzos científicos.

La creación de un premio para las contribuciones científicas a la ciencia de la Historia

El Comité Internacional de Ciencias Históricas, aprobó la creación en 2015 del “Premio Internacional de Historia, Jaeger-LeCoultre” (equivalente al premio Nobel en ciencias históricas) que se otorga al historiador que se haya distinguido en el campo de la Historia por sus obras, publicaciones o docencia, y haya contribuido significativamente al desarrollo del conocimiento histórico, premio consistente en una Medalla realizada por el grabador francés Nicolas Salagnac en un dibujo del artista ruso Yuri Vishnevsky, que describe la esfera de un reloj como emblema.

Nominaciones estelares en el premio Nobel de física 2024

La Real Academia de Ciencias de Suecia por conducto del Comité Nobel de Física otorgó en 2024 su apreciado galardón a John Joseph Hopfield y Geoffrey Everest Hinton por sus descubrimientos e invenciones fundacionales que permiten el “Aprendizaje Automático” (Machine Learning) con redes neuronales artificiales. Ambos investigadores realizaron esta hazaña científica utilizando los poderosos instrumentos generados en el campo de la física, desarrollando métodos, con los cuales prepararon el camino para la creación de las redes neuronales artificiales. Entendemos por Inteligencia artificial, al “Aprendizaje Automático” mediante redes neuronales artificiales. Se trata de una tecnología vanguardista -Avant Gard- cuya inspiración se fundamentó en el estudio profundo de la estructura física del cerebro, sin duda, el órgano más enigmático del universo, por ello Charles Sherrington lo denominó “telar encantado”. Al respecto escribió “El cerebro humano es un telar encantado en donde millones de velocísimas lanzaderas van tejiendo un diseño que continuamente se disuelve, un motivo que tiene siempre un significado, por más que éste jamás perdure, y no sea más que una cambiante armonía de sub-diseños. Es lo mismo que si la Vía Láctea se entregara a una especie de danza cósmica”. Sherrington señaló que “Se calcula que en cada cerebro humano hay un billón (1.000.000.000.000) de neuronas. Cada célula cerebral (neurona) contiene un vasto complejo electroquímico y un potente microprocesador de datos y sistema de transmisión que, pese a su complejidad, cabría en una cabeza de alfiler. Cada célula cerebral tiene el aspecto de un “super pulpo”, con un cuerpo central y decenas, centenas o miles de tentáculos (Charles Sherrington “Hombre versus Naturaleza”, 1951). Estas células conforman redes neuronales que se entrelazan entre si formando conexiones de magnitud inimaginable a primera vista, mil millones por cada milímetro cúbico de corteza cerebral (José Viosca “El cerebro: Descifrar y potenciar nuestro órgano más complejo” 2017). De acuerdo con el matemático y poliglota británico Daniel Tammet el cerebro humano es capaz de albergar mil billones de conexiones neuronales, un número mayor que el del universo de las estrellas conocidas (Daniel Tammet “La conquista del cerebro: Un viaje a los confines secretos de la mente”, 2017). Más parco en sus estimaciones es José Ramón Alonso doctor en Biología Celular y Director del Laboratorio de Plasticidad Neuronal y Neorreparación del Instituto de Neurociencias de Castilla y León de España, quien afirma que “El cerebro humano es la estructura biológica más compleja que conocemos. Cerca de ochenta y seis mil millones de neuronas conectadas entre sí por billones de contactos” (José Ramón Alonso, “Historia del cerebro: una historia de la humanidad”, 2018). Muchos capítulos de relevancia saturan esta espléndida obra siendo el capítulo “Los Vogt y el cerebro de Lenin”, un digno capítulo paradigmático.

En una red neuronal artificial (que es una tecnología informática) se parte para su construcción de considerar que las neuronas del cerebro están representadas por nodos integrados que se organizan en capas y que por ello tienen valores diferentes. El sistema se organiza en distintos niveles ordenados jerárquicamente. Hay que recordar que un nodo es un punto de intersección, conexión o unión de varios elementos que convergen asintóticamente en un mismo lugar. Cada nodo procesa la información recibida de fuentes cercanas al interior de las redes, y la evalúa y, el conjunto de nodos o red neuronal la trasmite y la procesa con resultados precisos ¿Cómo evalúa cada nodo de la red neuronal artificial la información que se trasmite y que se recibe? Mediante un proceso de aprendizaje. Los nodos y, por lo tanto, la red puede reconocer patrones y tomar decisiones ¿Qué objetos e información pueden trasmitir los nodos y las redes neuronales artificiales después de la evaluación en el proceso de simulación computacional? La tecnología de las redes neuronales artificiales que generan dispositivos de Inteligencia Artificial puede trasmitir muchos objetos como imágenes, inclusive el lenguaje natural, por ejemplo, existen máquinas traductoras que utilizan estas tecnologías para traducir textos en más de cien idiomas y dialectos, y que además acompañan a la traducción con voces naturales. Pueden hacer que automóviles aparquen sin conductor (Es común ver en China y en otros países estos hechos de la tecnología actual). En lo específico, en la “Inteligencia Artificial” se genera una tecnología denominada “Machine Learning” (Aprendizaje Automático), cuyo funcionamiento se debe a que emplea una estructura llamada “Red Neuronal Artificial”. Todo esto se basa en simular el funcionamiento del cerebro humano.

¿Cómo funcionan las redes neuronales naturales? Se basan en dos grupos de ramificaciones existentes en la estructura del cerebro humano; los axones que son ramificaciones que trasmiten impulsos, y las dendritas, que son ramificaciones que reciben los impulsos. La conexión que une los impulsos que se trasmiten y los que la reciben se denomina “Sinapsis”, es el espacio que conecta a unas neuronas con otras, cuyo botón situado en el extremo del axón libera las moléculas denominadas neurotransmisores. Este proceso es la esencia de la actividad cerebral humana. La red así constituida tiene una taxonomía especial; la relación entre los nodos o neuronas puede acentuarse (aproximarse) o puede debilitarse (alejarse). En el primer caso tenemos una “sinapsis de entrelazamientos significativos”, en el segundo caso tenemos una “sinapsis de entrelazamientos tenues”. En este contexto se logró identificar y diferenciar mediante arduas investigaciones la red tecnológica que desarrolla fundamentalmente sinapsis de entrelazamientos significativos de la red que desarrolla sinapsis de entrelazamientos tenues. Asimismo, fue factible hacer que esta última clase de red se potenciara con innumerables formas con el propósito de hacer que actúe con las funcionalidades de la sinapsis con entrelazamientos complejos. Existe una gran diversidad de neuronas que se despliegan en más de ciento cincuenta áreas cerebrales distintas, lo que genera también una diversidad de neurotrasmisores.

En la corteza cerebral reside el 80 por ciento del volumen total del cerebro humano. Allí están los circuitos de las redes neuronales donde se realizan las actividades fundamentales de la mente como el lenguaje y el pensamiento. En las áreas de asociación de la corteza se integran y procesan, toda la información sensorial que genera el pensamiento abstracto. Asimismo, el fisiólogo y anatomista francés Paul Broca, descubrió, el lugar preciso en que se ubica (en el lóbulo frontal) la actividad fundamental que produce el habla. Por la revolución que significó, el descubrimiento del área del cerebro humano que controla las funciones del lenguaje, se le denomina “Área Broca”. Para una valoración de Paul Broca como uno de los fundadores de la neurociencia recomendamos un texto breve, en su gran luminosidad intelectual: Leonardo Palacios Sánchez “Paul Broca y sus aportes a la Neurociencia”. Revista Medicina 43. Vol. 3, Academia Nacional de Medicina de Colombia (23 de octubre de 2021).

En los circuitos alejados de la corteza cerebral se generan los actos que no controlamos, como el hambre, y las emociones lúdicas más estilizadas, cómo la libido erótica señalada por San Agustin como uno de los motores de la personalidad humana junto a la libido del poder, y la libido que busca infatigablemente la riqueza material (Henri Lefebvre “Hegel, Marx, Nietzsche”, 1975). Fisiólogos y anatomistas denominaron a este entorno con el término de espacio límbico.

El cerebro está constituido por redes neuronales magistralmente descritas con gran meticulosidad en una de las obras esenciales de nuestra era y de todos los tiempos que, ningún profesional de cualquier género puede dejar de leer a saber: “El cerebro viviente” de Grey Walter (1990), un investigador miembro del team que giró en torno a Norbert Wiener, grupo que bajo su dirección creó la cibernética y la robótica. Grey Walter fue un hombre progresista, un marxista clásico que, a pesar de su ortodoxia fue un pensador flexible no dogmático, que veía en el desarrollo tecnológico una de las potenciales fuentes de la liberalización humana respecto de lo que llamó la opresión capitalista. Grey Walter como los laureados Hopfield y Hinton fueron influenciados por Pavlov y por ello investigaron el aprendizaje de robots para dar respuestas convincentes a los estímulos sensoriales del tipo pavloviano.

Hasta cierto punto, el otorgamiento del Nobel de Física a los físicos Hopfield y Hinton es también un homenaje indirecto a Grey Walter ya que éste último fue pionero en trabajos altamente creativos en neuro física, el campo de la utilización de la física para el aprendizaje mediante redes neuronales artificiales. Uno de los logros más relevantes desde el punto de vista de la neuro física imputable a Grey Walter, es su admirable demostración de que un sistema robótico con una “sinapsis de entrelazamientos tenues” (número escaso de conexiones dentro de los nodos), es pese a dicha situación, capaz de desarrollar comportamientos relativamente complejos como si fuese una “sinapsis de entrelazamientos significativos”, como si tuviera numerosas conexiones o nodos vibrantes en el sentido de ser tupidos en la vecindad de su entorno. ¿De qué manera demostró su teoría Grey Walter? Este notable pensador que nació en Kansas City demostró su teoría diseñando robots con sinapsis constituidos por nodos con entrelazamientos tenues, haciendo que se comportaran como si fueran sinapsis integrados por nodos con entrelazamientos significativos o complejos. Esto es posible por la propiedad de que el cerebro humano necesita generar solamente un décimo de voltio para todas sus complejas funciones. Propiedad cerebral que utilizó Grey Walter en la construcción de sus redes neuronales artificiales y de su robótica.

En 1948 Grey Walter probó su tesis con el diseño y funcionamiento de su “Machina Speculatrix”, un robot físicamente diseñado en forma de tortuga. Por la enorme pulsación personal marxista generadora de un entrañable amor al pueblo, que le caracterizó, Grey Walter se propuso (y lo logró), difundir el diseño de su robot tortuga de forma masiva, a efecto de difundir a toda la humanidad los beneficios sociales e intelectuales resultantes de su robótica. Paradójicamente, el pensador ultra-neoliberal que, se esconde bajo el nombre de Satoshi Nakamoto tuvo un propósito similar (pero con una filosofía conservadora libertaria) al difundir masivamente en 2008 (exactamente seis décadas después de que lo hiciera Grey Walter) vía internet su célebre libro blanco "Bitcoin: A Peer-to-Peer Electronic Cash System”, a través del cual sentó las bases metodológicas para la creación de sistemas criptográficamente seguros, que con la tecnología Blockchain podrían adoptar innumerables formas futuras, diseñados dichos sistemas a pruebas de manipulaciones, siendo totalmente transparentes y resilientes a la censura por parte de los poderes estatales o de un agente externo como un banco central. En efecto, Nakamoto consciente de que el capital financiero con su férreo poder oligopólico fue el causante de la crisis de 2008, ideó un poderoso sistema criptográfico para permitir a los individuos asumir por ellos mismos el poder económico mediante un sistema financiero descentralizado en lenguaje cibernético e informático altamente estilizado. Se trata de una red compleja que permite innumerables transacciones diarias a través de monedas digitales no emitidas por banco central alguno. Esta visión social se encuentra en inventores de tecnología por ejemplo el finlandés Lis Torvalds que, desarrolló la estructura informática del sistema operativo Linux de fama mundial lo entregó gratis. Una reminiscencia del socialismo nórdico (Sebastian Mallaby “The Power Law”, 2022).

Rhodri Hayard en un ensayo breve cuya lectura, brinda un goce estético único al paladar analítico más refinado, al examinar la Machina Speculatrix de Grey Walter en términos de redes neuronales, afirmó que dicha máquina tiene todos los ingredientes para generar métodos poderosos de “Aprendizaje Automático”, de un modo similar al que lo han efectuado en versiones modernas los trabajos en esta línea de investigación de los premios Nobel de física 2024, los profesores Hopfield y Hinton. El ensayo de Hayard se intitula “Tortoise and the Love Machine': Grey Walter and the Politics of Electro-encephalography” (2011). Previamente, Dirk Schlimm había confirmado la tesis de Hayard en su famoso ensayo “Learning from the Existence of Models: On Psychic Machines, Tortoises, and Computer Simulations” (2009).

Grey Walter no desconoció el papel principal de la psicología cognitiva en la creación de la Inteligencia Artificial, y el magno propósito de buscar la esencia del funcionamiento del alma humana, un objetivo altísimo que corre paralelo a los trabajos de “Inteligencia Artificial” de Hebert Simon, premio Nobel de economía, 1978. Al respecto, sobre este tema, tenemos el brillante trabajo de síntesis creativa y conceptual de Francis Crick “The Astonishing Hypothesis: The Scientific Search for the Soul” (1994). Si se quiere profundizar en el pensamiento creador de Grey Walter recomendamos un breve texto de Owen Holland “Grey Walter: The Pioneer of Real Artificial Life”, presentado en 1997 en las actas del quinto simposio internacional sobre el taller de vida artificial (Proceedings of the 5th International Workshop on Artificial Life. MIT Press, 1997).

John Hopfield ganador del Nobel en Física, 2024

La Real Academia de Ciencias de Suecia, concedió el premio Nobel de Física a John Hopfield por haber inventado una red de nodos que utiliza métodos creados para guardar y recrear patrones con entrelazamientos tenues o bien con entrelazamientos predominantemente significativos. De esta manera, los nodos creados por Hopfield están constituidos como píxeles. Emerge así, la “Red Hopfield”, bautizada de esta manera por la comunidad científica; red que utiliza la física y sus poderosos instrumentos (ecuaciones diferenciales dinámicas no lineales) para describir las características de un material especial vinculado a su giro atómico (el cual por otra parte es medido por su momento angular o momento cinético), una propiedad que convierte a cada átomo y por ende cada neurona en un imán diminuto. La red en su conjunto se describe de una manera equivalente a la energía en el sistema de espín que se encuentra en la física, y su forma de entrenarse se basa en la búsqueda de valores para las conexiones entre los nodos, a efecto de que las imágenes guardadas tengan con mucha seguridad baja energía. Cuando la “Red Hopfield” recibe una imagen distorsionada o incompleta, trabaja metódicamente a través de los nodos, y actualiza sus valores para que se garantice que la energía de la red efectivamente disminuya. Así, la “Red Hopfield trabaja paso a paso y de manera sistemática para encontrar la imagen guardada que más se parezca a la imagen imperfecta con la que fue alimentada. Por esta última característica el trabajo de Hopfield pertenece al dilecto campo de la Inteligencia Artificial y se inscribe en el propósito de creación de máquinas que simulan la actividad cerebral del pensamiento humano.

En ciencias computacionales las redes de Hopfield pertenecen al ámbito de la neuro dinámica, se trata de redes neuronales artificiales, que como se mencionó anteriormente trabajan con sistemas dinámicos por lo que asumen la forma de ecuaciones diferenciales no lineales, de donde emerge en la neuro dinámica el problema clásico de la estabilidad de la física clásica y contemporánea, es decir el problema de la coordinación entre los elementos individuales del sistema. La clave para entender su vínculo con la “Inteligencia Artificial” es que al tratarse de redes recurrentes las creadas por Hopfield, se pueden utilizar como memorias asociativas, como las que existen en el cerebro humano ¿Por qué son redes recurrentes las redes de Hopfield? Porque satisfacen las siguientes condiciones: (a) Los nodos (o neuronas) constituidos de la red son unidades de cómputo no lineales, (b) constituyen los nodos conexiones sinápticas simétricas aplicables a las redes tenues y/o a las redes complejas, (c) existe una sobreabundancia de retroalimentación entre las entradas y salidas de las redes de Hopfield. Por este conjunto de razones importa el proceso de estabilidad del sistema no lineal que las contiene. ¿Las redes de Hopfield son estables? Sin duda la respuesta es afirmativa, siempre y cuando en el proceso de cambio (de la neuro dinámica), las salidas de nodos constitutivos de la red sean cada vez más pequeñas, entonces el sistema es estable, en conformidad con las condiciones de estabilidad definidas por el físico ruso Lyapunov.

Es importante señalar, que, en un sistema dinámico no lineal, un punto de equilibrio estable bajo las condiciones de Lyapunov ocurre; si todas las soluciones (de las ecuaciones diferenciales del sistema de la red) que se inicien en las cercanías del punto de equilibrio permanecen en las cercanías del punto de equilibrio. Si conforme transcurre el tiempo permanecen en la vecindad sin alcanzar el punto de equilibrio tenemos la “estabilidad débil”, si además permanecen en el entorno del punto de equilibrio y tienden en el infinito al punto de equilibrio, tenemos la “estabilidad asintótica”. ¿Las redes de Hopfield recurrentes, pueden ser inestables? La respuesta es afirmativa. Lo importante es encontrar las condiciones de estabilidad débil o estabilidad asintótica para que el mecanismo funcione adecuadamente. Una digresión importante muy conocida en el tema de las ecuaciones diferenciales respecto de las condiciones de estabilidad de Lyapunov es el señalamiento de que el sistema de redes recurrentes como las que ostenta la Red Hopfield aplica a sistemas físicos estacionarios.

A Hopfield le interesó construir memorias asociativas utilizando las redes identificadas con su nombre sobre la base de conjuntos de nodos con sinapsis tenues o complejas, con el propósito de construir redes neuronales artificiales con propiedades de estabilidad. Como todo nuevo campo científico, existen limitaciones y fallas en los esquemas originales como los construidos por Hopfield que, se van depurando por la nueva investigación. Las redes de Hopfield tienen el defecto de que el número de patrones a almacenar (o aprender) es bastante limitado comparado con el número de nodos en la red, no tienen un tiempo definido para su entrenamiento en virtud de que se trata de procesos hayekianos adaptativos (ordenes espontáneos), y en el momento en que se ponen a funcionar como memorias asociativas son altamente tolerantes al ruido. A pesar de estos defectos las redes de Hopfield tienen el beneficio de simular neuronas biológicas, como las que alberga el cerebro humano. Este es el caso de las llamadas redes analógicas de Hopfield (Dra.María del Pilar Gómez Gil “C261-69 Tópicos Avanzados: Redes Neuronales Artificiales Neuro dinámica: Las Redes de Hopfield”. INAOE, 2023).

Es importante señalar que un "orden" define un estado de cosas en el que una multiplicidad de elementos de diversos tipos, sociales, económicos, políticos, y físicos (como el cerebro humano o los componentes del cosmos o de una sociedad compleja como la nuestra) están tan relacionados entre sí que, podemos aprender por nuestro conocimiento de alguna parte espacial o temporal del todo para formar expectativas correctas con respecto al resto, o al menos expectativas que tienen buenas posibilidades de resultar correctas. El pensador austriaco Von Hayek, premio Nobel de economía 1974, señaló que el orden puede ser “creado”, como es el caso de una economía planificada comunista, o planificada parcialmente considerando elementos del mercado capitalista con elementos del Estado, tal como sucede en una sociedad socialista como la que se aplica en los países nórdicos. En la física, las redes neuronales artificiales pertenecen al “orden creado”. El orden de acuerdo con Hayek puede también ser espontáneo, no creado artificialmente y, surge de manera natural, como el cerebro humano, o el orden provisto socialmente por la emergencia del mercado capitalista. Hayek manejó a lo largo de los más de veinte volúmenes que escribió, la distinción entre orden creado y orden natural. Los griegos denominaron al orden creado con el término “taxis”, y al orden natural con el término de “kosmos” (F. Hayek, “Derecho, legislación y libertad, Vol. I Normas y orden”, Unión Ed. Madrid, 1978; Federico G. M. Sosa Valle, “El concepto hayekiano de orden espontáneo”, 2008. Para una crítica incisiva dese un punto de vista progresista del concepto de orden espontáneo de Hayek como defensa del capitalismo, recomendamos el texto de Moisés Gómez “Crítica al concepto de <> de Hayek”, 2011). Las redes neuronales artificiales basadas en la Inteligencia Artificial constituyen un orden creado, mientras que el cerebro humano es un orden natural.

Geoffrey Hinton ganador del Nobel en Física, 2024

El premio Nobel de Física 2024 concedido a Geoffrey Hinton se debe al hecho de haber utilizado creativamente este físico la “Red Hopfield” para generar una nueva red artificial denominada “Red Hinton” o “Máquina de Boltzmann”. La “Red Hinton” lleva el nombre de Boltzmann en honor al físico austríaco Ludwig Boltzmann el mítico fundador de la mecánica estadística en el siglo XIX, quien desarrolló los fundamentos de la entropía subyacentes en la segunda ley de la termodinámica que establece que, todo sistema físico tiende al desorden, y la magnitud de ese desorden se determina por la probabilidad, de ahí que la “Red Hinton” o “Máquina de Boltzmann” al utilizar la probabilidad constituye lógicamente una red estocástica, que la diferencia claramente de la “Red Hopfield”, pero que se deriva de ella. ¿Cómo se vincula la Red Estocástica de Hinton con la Inteligencia Artificial? La respuesta es muy sencilla, y muy elegante; por el símil siguiente que, contiene una poderosa característica de simetría entre los fenómenos de la cosmología y los fenómenos de las redes neuronales artificiales. En las teorías cosmológicas más recientes, se propone que el universo surgió de la nada en virtud de que los objetos de la mecánica cuántica constitutivos del universo físico, como las partículas elementales son “estados vibracionales” más que partículas puntuales, por lo que siendo así, surgen como entes físicos tangibles continuamente de la nada (la aparición de un fantasma que surge de pronto en una película de terror da una pálida idea de este proceso. Pero, sólo como símil). En el principio, en el llamado momento cero (Big Bang), el universo era un ente super ordenado una especie de “nada” diría si existiere un Polifemo cósmico (remember el Polifemo homérico que llamaba “nadie” a Ulises en la Odisea), ente que explotó en el momento inicial y del cual surgió “gratis” la materia que se expande de manera continua por todo el universo, por el impulso dado por la explosión inicial, incrementándose en este proceso expansivo, la entropía que continuará hasta que al enfriarse y contraerse el universo y todos sus objetos por la gravedad de los agujeros negros, se condense y presuntamente vuelva a su estado original, vuelva a la “nada”; es decir, al estado inicial del Big Bang. Ciertos físicos prevén en sus modelos cosmológicos, la posibilidad de que la historia se repita por los siglos de los siglos como lo determina el “modelo cosmológico cíclico” del matemático y físico británico Roger Penrose (íntimo colaborador de Stephen Hawking), premio Nobel de Física 2020. Un libro memorable producto de la colaboración de Penrose y Hawking que se lee con fruición es el texto que lleva por nombre “Quantum and Cosmologic Questions” (1995). Un año antes de la crisis financiera en agosto de 2007, estando de paseo, al caminar con la familia por la Gran Vía, en Madrid, entré a la librería “La Casa de libro” y adquirí, una versión en español que acababa de salir como novedad, del trabajo de Penrose y Hawking, editado por Alianza Universidad bajo el título de “Cuestiones cuánticas y cosmológicas”. Recuerdo que también compré una colección de cuentos policiacos de Dorothy L. Sayers.

Retornando al símil en comento, tenemos la existencia de un proceso peculiarmente similar al que rige el modelo cosmológico cíclico de Penrose, y ese es el modelo Hopfield—Hinton que subyace detrás de la teoría del cerebro de Boltzmann, cuya característica prevé que el cerebro humano pueda surgir de la nada como una mera posibilidad matemática, claro de reducidísima probabilidad fáctica. Esto es algo difícil de entender, como la dificultad que experimentamos al tratar de hacer inteligibles la mayoría de los componentes físicos que, integran el campo enigmático de la mecánica cuántica (MC). Digo difícil de entender, porque hasta antes de las teorías físicas de Alain Aspect, John F. Clauster y Anton Zelinger en torno a la mecánica cuántica que les condujo a obtener el premio Nobel de física en el año post-covid 19 de 2022, la idea que prevalecía en la comunidad científica era que la mecánica cuántica, aunque válida experimentalmente, no se entendía desde el punto de vista de la racionalidad de la mente humana. Así, el premio Nobel de física 1965, Richard Feynman (distinción que compartió con los físicos Julian Schwinger y Sin-itero Tomonag) por su trabajo en electrodinámica cuántica, afirmaba entonces que la naturaleza parece ser incomprensible: "Mi tarea -expresó Feynman-es convencer a los estudiantes de física de que no se alejen porque no entienden la mecánica cuántica. Mis alumnos no la entienden. Eso es porque yo tampoco la entiendo. Nadie lo hace".

Esta postura de Feynman lo hace pertenecer íntegramente a la escuela denominada “interpretación de Copenhague de la mecánica cuántica”, liderada por Niels Bohr, Werner Heisenberg y otros físicos fundadores de este rubro relevante de la física contemporánea. Para un entendimiento más pleno de la postura de Feynman sobre la electrodinámica cuántica, sin tener los arduos conocimientos matemáticos y técnicos que demanda tan exigente teoría, recomiendo el libro de Feynman publicado en español en 2020 por Alianza Editorial “Electrodinámica cuántica. la extraña teoría de la luz y la materia”. Un texto fascinante que se lee de una tirada, y se entiende mejor si se lee escuchando a la vez Fearless el super álbum del ícono del Pop, Taylor Swift.

Los textos de Feynman orientados a trasmitir la creatividad científica en el campo de la física son fascinantes. A mí me impactó su libro de 1985 “¿Está usted de broma Sr. Feynman? Aventuras de un curioso personaje tal como fueron referidas a Ralph Leighton”, cuyo espíritu corrosivo y alegre, me reconfortó de la tristeza del colapso de la URSS y lo que significó para muchos hombres y mujeres progresistas del mundo, que habíamos pensado ilusoriamente que, luego del llamado informe secreto de Jrushchov al XX congreso del partido comunista de la URSS, el sistema entraría a una profunda etapa de autocrítica y se reformaría, pero, lamentablemente no fue así.

Por otro lado, recientemente, la editorial Paidos sorprendió a los estudiosos latinoamericanos de la filosofía y obra de Richard Feynman con la publicación de su libro “El placer de descubrir” (2023).

Regresando a nuestro tema tenemos un hecho científico evidente la “Red Hopfield” trasmutada en “Red Estocástica de Hinton”, genera la “Máquina de Boltzmann” (MB). Esta nueva red puede aprender a reconocer elementos característicos o similares entre un vasto conjunto de un determinado tipo de datos. El Comité Nobel de Física concedió su galardón a Geoffrey Hinton por utilizar herramientas clásicas de la física estadística, generando una nueva ciencia a partir de los sistemas tecnológicos construidos utilizando muchos componentes similares de las redes neuronales artificiales. La Máquina de Boltzmann corrobora los innumerables nodos constitutivos de su red, brindando ejemplos que, surgen cuando dicha máquina está en funcionamiento siguiendo pautas estocásticas. De ahí entonces, que la “Máquina de Boltzmann” se pueda utilizar para clasificar imágenes o crear nuevos ejemplos semejantes al patrón en el que fue entrenada. Geoffrey Hinton creó una red especial estocástica, una máquina que ha coadyuvado a iniciar el fantástico desarrollo actual del Machine Learning. Las investigaciones de Hinton sobre la red neuronal se sustentan en un sistema matemático y computacional que aprende habilidades mediante el análisis de datos.

¿Sobrepasará la Inteligencia Artificial a la mente humana? Reflexión en torno a los límites de la Inteligencia Artificial vinculados con la matemática algorítmica y la física

Para muchos partidarios fervorosos de la Inteligencia Artificial, incluyendo a los miembros del Comité Nobel de Física que en 2024 otorgaron su galardón a los investigadores Hopfield y Hinton, el trabajo creativo de ambos físicos sienta las bases para demostrar que la Inteligencia Artificial es una máquina que podrá alcanzar los aspectos más sutiles de la mente humana. Recientemente, Geoffrey Hinton premio Nobel de física 2024 afirmó categóricamente que en 20 años o menos, la Inteligencia Artificial acabará superando la inteligencia humana. Hinton parece emitir su inexorable juicio sobre la base de los recientes avances tecnológicos en la Inteligencia Artificial. Muchas décadas atrás desde el campo de la lógica matemática formalista axiomática, matemáticos alemanes y franceses anticiparon el juicio de Hinton como veremos a continuación.

A principios del siglo XX, el matemático alemán de Gotinga, David Hilbert, considerado el Euclides moderno por su filosofía matemática formalista y su versión moderna de la axiomatización de la matemática, ya había dado una respuesta positiva a esta posibilidad, cuando emitió su aforismo favorito (inscrito en su tumba) que afirma “Wir Müssen Wissen, Wir Werden Wissen” y que expresado sintéticamente en español afirma “Debemos Saber, Sabremos”. Con este aforismo David Hilbert, expresó su profundo convencimiento en el poder de los sistemas axiomáticos para conocer todo el saber matemático y la naturaleza del universo, y desde luego del conocimiento de la mente humana. Los matemáticos Bertrand Russell, Alfred Whitehead, George Boole, y G. Peano, y hasta cierto punto Alan Turing concordaron con el optimismo de Hilbert en esta trascendental cuestión, por el hecho de admitir, que las matemáticas son una variedad de la lógica a la que se sujeta el pensamiento humano. En este sentido si agotamos la matemática mediante un sistema lógico axiomático exhaustivo comprenderemos toda la sutileza de la mente humana. En la segunda edición de “Los principios de matemática” (1937), Bertrand Russell escribió sumaria y contundentemente lo siguiente: “<>”.

Por su parte, el autor de este ensayo asume la posición contraria, las matemáticas, no se subsumen a la lógica, y la estructura axiomática presenta límites significativos, y por lo tanto el pensamiento humano no es equivalente a las estructuras axiomáticas ni a sus algoritmos computacionales que se derivan. En esta postura estoy del lado de Kurt Gödel, y de literatos universales como Shakespeare, Borges y Chesterton, para quienes el pensamiento humano presenta infinitas sutilezas que no captan; el lenguaje amoldado a un sistema axiomático, ni los algoritmos correspondientes de la “Inteligencia Artificial”. El trabajo de Hopfield y Hinton en mi opinión no resuelve lo que se llama la Paradoja de Chesterton, que indica que la mente humana es un dispositivo extremadamente sutil que, no podrá jamás ser replicado en toda su sutileza por las armas de los sistemas axiomáticos y del lenguaje correspondiente. De esta manera a pesar de su inmensa utilidad, la Inteligencia Artificial entre otras razones vertidas por los célebres teoremas de Gödel presenta dificultades epistemológicas insalvables, que le impiden abarcar toda la sutileza del pensamiento humano, aunque pueda tener y lo tiene mayor capacidad de cómputo, veamos el porqué es así.

Los denominados teoremas de Gödel de indecidibilidad e incompletud son definitivos, aceptados en su definitividad por todos los lógicos del mundo excepto por algunos miembros de la escuela matemática francesa que, se esconde bajo el nombre de Bourbaki. Esta escuela pretendió desarrollar todo el saber matemático y ascender a la cúspide de la sutileza del cerebro humano, sobre la base de sistemas axiomáticos, siendo el elemento unificador de la totalidad de las áreas que abarcan el campo de la matemática, el concepto de “estructura”. ¿Qué áreas principales de la matemática logró unificar Bourbaki, dado que su programa de reconstrucción quedó inacabado? La unificación matemática de Bourbaki comprendió once áreas a saber: (I) Teoría de conjuntos, el campo descubierto por George Cantor. La versión axiomática fue presentada por Bourbaki en 1954 (II) todas las variedades del álgebra. Sin embargo, es importante aclarar que el libro II de Bourbaki que comprende la reconstrucción axiomática de este amplio campo exceptúa el álgebra de Sophus Lie, y exceptúa también el algebra conmutativa ambos temas desarrollados en los libros séptimo y noveno. La versión axiomática de las variedades algebraicas fue presentada por Bourbaki en 1942 (III) Topología general, fue publicada por Bourbaki en 1940. En la reconstrucción axiomática de esta área sus autores efectúan una distinción taxonómica perfectamente clara de los grupos topológicos (IV) Las funciones con variable real con las singularidades que generan los números complejos, son representados por una estructura axiomática. Proyecto publicado en 1949 (V) Los espacios vectoriales topológicos (publicados en 1953), incluyeron los conjuntos convexos, y los espacios de Hilbert, estos últimos fueron muy utilizados por el premio Nobel de economía 1983, Gerad Debreu en su magnum opus “Teoría del valor” (1959). Es importante recordar que la filosofía de Debreu es afín al de la escuela de Bourbaki. Se trata de una visión extrema del método axiomático. De hecho, como lo señaló Roy Weintraub, Debreu no obstante ser economista es un miembro con pleno derecho de pertenecer a Bourbaki. Así, en su libro “How Economics Became a Mathematical Science” (2002) hay un capítulo que trata explícitamente de la relación de Debreu con Bourbaki. “La teoría del valor de Debreu dice Weintraub es ciencia económica con poderosa sintaxis axiomática, pero sin sustancia”. Me parece que Weintraub no es del todo exacto ya que no examina las implicaciones heterodoxas (anti neoclásicas) del “Teorema Mantel-Debreu-Sonnenschein”, que significa una semi-destrucción analítica de las propiedades de estabilidad y unicidad del equilibrio económico general del modelo económico neoclásico (VI) Integración. Tema amplio, que incluye axiomatizar rubros como: las desigualdades de convexidad, las medidas (e integrales) de Lebesgue, la integración vectorial y la de espacios topológicos separables. El texto plenamente axiomatizado del campo del análisis matemático de la integración fue publicado en 1952 (VII) Algebra conmutativa, campo preferido por el matemático noruego N. Abel. Bourbaki publicó el texto que contenía esta axiomática en 1961 (VIII) Variedades diferenciales analíticas, amplio campo del análisis matemático cuyo objetivo es generalizar el cálculo diferencial e integral, la teoría de ecuaciones diferenciales y el análisis vectorial; propios de los espacios , relacionados a ciertos espacios “M” denominados variedades diferenciables. Todo integrado por Bourbaki en un sistema axiomático preciso cuyo texto fue publicado en 1967 (IX) Grupos algebraicos y algebras de Lie empleados para estudiar simetrías de ecuaciones diferenciales, la estructura axiomática se publicó en 1960 (X) Topología algebraica, texto publicado en 2016 (X) Teorías espectrales, que permiten examinar las características de los espectros atómicos de la mecánica cuántica. El texto correspondiente a este tema fue publicado en 2016. Tales son las once áreas de la matemática objeto de la reconstrucción axiomática basada en el concepto unificador de Bourbaki de “estructura”.

Adentrarse en el estudio de esta sociedad secreta de matemáticos franceses del más alto calibre puede iniciarse con la lectura del libro de Maurice Mashaal, “Bourbaki. A Secret Society of Mathematicians” (2006). Un fascinante texto es el que escribió Aczel Amir “El artista y el matemático: La historia de Nicolas Bourbaki, el genio matemático que nunca existió” (2009). Fernando Bombal escribió varios ensayos sobre Bourbaki y sobre algunos matemáticos pertenecientes a esta sociedad secreta destacando: “Bourbaki. Historia de la Matemática en el siglo XX”, Real Academia de Ciencias de Madrid, (1988), y “Laurent Schwartz, el matemático que quería cambiar el mundo” (Real Sociedad Matemática Española, 2003). Jean Dieudonné, miembro destacado de la sociedad secreta escribió un texto revelador “The Work of Nicolas Bourbaki” (1970). Asimismo, Laurent Schwartz, matemático, marxista en la variante trotskista escribió una notable, aunque densa autobiografía “A Mathematician Grappling with His Century” (2001), y André Weil también miembro de Bourbaki escribió una breve y agradable autobiografía The Apprenticeship of a Mathematician” (1992). Los matemáticos de Bourbaki escribiieron un texto de historia de las matemáticas desde el punto de vista de su visión axiomática, que Alianza Editorial publicó en español en 1976. Sin embargo, en mi opinión el matemático más importante de Bourbaki, el enigmático Alexandre Grothendieck fue quien reescribió bajo la visión de Bourbaki la totalidad de las ramas más importantes de la matemática del siglo XX cuyo legado perdurará mientras exista esta ciencia. Grothendieck pretendió sustanciar la semántica axiomática de la matemática de Bourbaki. ¿Qué ramas de la matemática unificó y desarrolló creativamente Grothendieck? La aritmética, la geometría algebraica y la topología. Se trata de una de las más grandiosas y vastas fundamentaciones jamás realizada en matemáticas, que dio un brillo singular a Bourbaki. La gigantesca creación matemática de Grothendieck bajo un enfoque integral hicieron que los miembros de Bourbaki fueran considerado por los jóvenes matemáticos de fin de siglo XX, como la escuela matemática total (Remember el futbol total de la naranja mecánica holandesa de Rinus Michel y Johan Cruyff). Sólo Marx en capacidad prodigiosa de trabajo puede compararse a Grothendieck, como apuntó Jean Pierre Serre “Grothedieck hacía matemáticas doce horas al día, siete días a la semana, doce meses al año por veinte años consecutivos” (Winfried Scharlau “Who is Alexander Grothendieck”, Annual Report 2006 of the Mathematics Research Institute in Oberwolfach, Germany).

Alexandre Grothendieck fue galardonado en 1966 con la medalla Fields, el “Nobel” de las matemáticas, pero no asistió a recibir el premio que se entregaría en la URSS como forma de protesta por la represión política de ese país a sus ciudadanos y especialmente a los judíos. No se piense que, Grothendieck fue un personaje políticamente conservador, por el contrario, fue un pensador progresista muy influenciado por el marxismo trotskista de su maestro Laurent Schwartz, quien le dirigió su tesis doctoral sobre “Análisis Funcional”. Protestó arduamente Grothendieck contra la guerra de Vietnam. Así, en noviembre de 1967, durante el apogeo de la guerra de Vietnam viajó a Hanoi para presentar unas conferencias sobre la teoría de las categorías, un campo muy abstruso de la matemática bourbakiana, todo ello en protesta contra la guerra. Abandonó su alma mater, el prestigiado Instituto de Altos Estudios Científicos de Francia, al descubrir que recibía donativos de fondos de instituciones militares. Como Jean Paul Sartre quien rechazó el premio Nobel de literatura y muchos otros premios, Grothendieck rechazó la Medalla Fields de matemáticas, y rechazó el premio Crafoord de la Real Academia Sueca de Ciencias argumentando las razones siguientes: «Dado el declive en la ética científica, participar en el juego de los premios significa aprobar un espíritu que me parece insano» y porque «mi pensión es más que suficiente para atender mis necesidades materiales y las de los que de mí dependen”. Protestó contra la destrucción ecológica tanto del capitalismo opresor como del comunismo soviético. Alexander Grothendieck , fue un ecologista político en el mismo sentido en que lo fue Marx (John Bellamy Foster “Marx´s Ecology: Materialism and Nature”,. Monthly Review, 2000).

Alexander Grothendieck al ver que el mundo capitalista y comunista se hundía en guerras, destrucción ecológica y podredumbre moral, inesperadamente enmudeció, se retiró de toda actividad matemática, de toda actividad social y de toda actividad política. Se fue a vivir aislado a la Villa de Lasserre junto a los Pirineos franceses. Le horrorizó la vinculación de la axiomática matemática por él y Bourbaki creada, con la Inteligencia Artificial y sólo permitía el acceso en su lugar de retiro a muy pocos allegados. Como Torstein Veblen (“Teoría de la clase ociosa”,1899) vio un aciago fin de la historia. En esta tesitura, en enero de 2010 envió una carta en la que como Kafka (Max Brod “Kafka: A Biography”, 1937) y Virgilio (Hermann Broch “La muerte de Virgilio”, 1945), declaró Alexander Grothendieck expresamente su voluntad de que sus textos (incluidos los cuatro tomos de su obra geometría algebraica, su demostración del teorema Riemann-Koch-Grothendieck, sus ponencias en los seminarios Bourbaki, sus contribuciones a la unificación de la matemática, sus seminarios sobre la teoría de la categorías, y sus escritos sobre K-Teoría), nunca más por los siglos de los siglos fueran publicados, recomendó enérgicamente su desaparición. El 13 de noviembre de 2014, Alexander Grothendieck, el Mozart de las matemáticas falleció en el hospital francés Ariege Couserans de Saint-Girons frisaba los 86 años. La valoración más objetiva de la creación matemática de su obra viene dada por grandes matemáticos en el texto “Alexandre Grothendieck: A Mathematical Portrait” (2014).

Por lo anterior,debe ser claro que los miembros de la escuela Bourbaki son matemáticos the first class, muchos de ellos ganadores de la Medalla Fields, un galardón más valioso que el premio Nobel. Se puede decir por lo menos, que la Medalla Fields es el premio Nobel de las matemáticas, la reina de las ciencias. Miembros de Bourbaki ganadores de la Medalla Fields han sido: Laurent Schwartz (1950), Jean Pierre Serre (1954), Alexander Grothendieck (1966), Alain Connes (1982), y Jean Christopher Yoccoz (1994).

Bourbaki y el programa formalista lógico axiomático base de los algoritmos de Inteligencia Artificial

Los matemáticos de Bourbaki estaban entusiasmados con el programa formalista planteado por David Hilbert en el Congreso Internacional de Matemáticas de 1900 en la ciudad de las revoluciones políticas progresistas, París, Francia (David Hilbert “Mathematical Problems: Lecture Delivered before The International Congress of Mathematician at Paris in 1900”. Apéndice del libro de Ben H. Yandell “The Honors Class: Hilbert´s Problems and Their Solvers. We Must Know. We Shall Know”, 2002). En ese Congreso, Hilbert propuso veintitrés problemas pendientes de resolver que, marcaron una gran parte de la agenda matemática del siglo XX con profundas implicaciones en el siglo XXI, Hilbert planteó en el segundo problema que estaba pendiente de resolver lo siguiente: “demostrar que los axiomas de la aritmética son consistentes, que la aritmética es un sistema formal axiomático que no supone contradicción y es completo”. También planteó en el problema sexto, que la consistencia y completud de un sistema axiomático se resolvería de manera positiva. Por ello, armado con una elevada fe positiva en la infalibilidad del formalismo axiomático, David Hilbert propuso axiomatizar toda la física (la mecánica clásica, la termodinámica, y la teoría cuántica de campos).

Influenciados por Hilbert (abre los ojos y serás influenciado señaló Bob Dylan), los matemáticos de Bourbaki vieron con desprecio los resultados de los teoremas de Gödel de 1931, en virtud de que atentaban contra la unificación axiomática de todo el saber matemático lo que inhibía la idea de que la lógica matemática en su más alta perfección como la provista por la Inteligencia Artificial, revelaría todos los secretos del pensamiento humano. Por ello, conscientemente ignoraron dichos resultados además por las implicaciones siguientes: El primer teorema de Gödel denominado teorema de indecibilidad establece categóricamente que, ninguna teoría matemática formal capaz de describir un sistema axiomático o un sistema de la aritmética como los números naturales con suficiente expresividad, es a la vez consistente y completa. Es decir, si se establece que los axiomas de dicha teoría no se contradicen entre sí, entonces existen enunciados que no se pueden probar ni refutar a partir de ellos.

¿Qué implicaciones tiene el teorema de indecidibilidad de Gödel para la estructura algorítmica de la Inteligencia Artificial? El teorema de indecibilidad de Gödel aplica siempre que la teoría aritmética o el sistema axiomático que lo define sea un procedimiento recursivo, esto es, una teoría en la que el proceso de deducción se pueda llevar a cabo mediante un algoritmo. Las consecuencias epistemológicas son devastadoras. El teorema de indecidibilidad de Gödel pone límites severos a la teoría cognitiva del pensamiento humano vinculada a la estructura algorítmica de los sistemas de Inteligencia Artificial, más no limita al pensamiento humano mismo.

El segundo teorema de Gödel de Incompletud señala que una de las sentencias indecidibles de un sistema formal axiomático es aquella que «afirma» la consistencia de esta. Siendo indecidible; entonces, si el sistema de axiomas en cuestión es consistente, no es posible demostrarlo mediante dichos axiomas.

Los teoremas de indecidibilidad y de incompletud de Gödel son resultados pertenecientes al campo de la lógica matemática, y significaron una severa y dura respuesta negativa al segundo y sexto problemas de Hilbert. Los teoremas de Gödel implican que los sistemas axiomáticos de primer orden tienen severas limitaciones para fundamentar las matemáticas. ¿Qué implicaciones tiene el teorema de incompletud de Gödel para la estructura algorítmica de la Inteligencia Artificial?

La Inteligencia Artificial se basa en un sistema algorítmico de signos formales lo que incluye una estructura de reglas de combinación, que se establecen como formulas, y ciertas sucesiones de fórmulas que componen las demostraciones de las sentencias. Por lo tanto, los teoremas de una cierta teoría formal y axiomática se integran por todas las fórmulas que puedan demostrarse a partir de una cierta base que son los axiomas y los postulados. Si la matemática es reducible a la lógica como presumen Bertrand Russell y los fervorosos (y a menudo ingenuos) partidarios de los sistemas de Inteligencia Artificial; entonces cualquier sistema formal axiomático construido y las reglas o algoritmos que lo definen deben tener dos propiedades esenciales a saber: (I) Estar libres de contradicciones y (II) ser cerrados en el sentido de óptimos y completos. Los teoremas de Gödel destruyen rotundamente (y quizá para siempre) esta presunción y alcanza a las reglas formales incorporadas en todo sistema informático. Todos los sistemas algorítmicos de Inteligencia Artificial son recursivos, al sustentarse en sentencias encadenadas que le dan sentido sintáctico al sistema formal. Si no fueran recursivos se podrían construir sistemas completos y decidibles es decir consistentes, como la aritmética construida por Presburger para los números naturales, que evade las implicaciones de los dos teoremas de Gödel. Pero estos, tienen alcances muy limitados.

En síntesis, las implicaciones no sólo para el programa formalista de Hilbert son graves por lo siguiente: El teorema de indecidibilidad señala que «nunca se podrá encontrar un sistema axiomático que sea capaz de demostrar todas las verdades matemáticas y ninguna falsedad». El teorema de incompletud tiene implicaciones más graves en virtud de que afirma los siguiente: <>.

De lo anterior es claro y lo deben tener en cuenta los partidarios extremos de la Inteligencia Artificial que, nunca se podrá producir un algoritmo general tal que, para una sentencia dada, determine si es indecidible o no, permitiendo a los matemáticos evitar completamente los problemas indecidibles y de incompletud. La Máquina universal de Turing, llega muy lejos pero no resuelve los problemas planteados por Gödel, como lo admitió el propio Turing. Esta debilidad analítica se debe a que es factible demostrar que, existen funciones en un sistema formal recursivo, que no son posibles de calcular mediante la Máquina de Turing. Este es el “Teorema de la Imposibilidad de la Maquina de Turing”.

¿Qué implica el “Teorema de la Imposibilidad de la Máquina de Turing? Si se establece un paradigma que contiene todas las sentencias y fórmulas recursivas se obtiene una de las dos situaciones incompatibles entre sí: (a) La Máquina de Turing produce un resultado y lo realiza dejando sin computo ciertas funciones. (b) Si quiere producir un resultado para la totalidad de las funciones se queda la máquina calculando indefinidamente por toda la eternidad, hasta el fin de los tiempos sin producir resultado. Esta incompatibilidad que genera el “Teorema de la Imposibilidad de la Maquina de Turing” se conoce como el “Halting Problem” que planteó el propio Alan Turing en 1936 en su artículo “On Computable Numbers, with an Application to the Entscheiidunggsproblem” y que los partidarios incondicionales de la Inteligencia Artificial suelen ignorar, en una actitud que denota cierta no probidad intelectual. Este es un ejemplo de lo que en ciencia social es denominado el problema de los canallas intelectuales planteado por Marx (Marx's problem of intellectual scoundrels”). Se trata por otra parte de una conducta intelectual y social que, es super reiterativa en el comportamiento cotidiano de los actores políticos. De esta manera el Halting Problem permite demostrar la incomputabilidad de ciertas funciones de un sistema formal de signos lógico-simbólicos, con carácter recursivo y estructurado por reglas de carácter axiomático. Esta debilidad de la construcción axiomática se trasmite a todos los sistemas de Inteligencia Artificial. Esto no implica que en tareas practicas específicas la Inteligencia Artificial no sea un poderoso arsenal instrumental clave del desarrollo tecnológico del siglo XXI.

Un libro asombroso es el publicado por el ya citado matemático Roger Penrose “El camino a la realidad: Una guía completa a las leyes del universo” (2006), un texto de más de 1400 páginas, cuya lectura es imprescindible para entender las recientes teorías del universo, de la materia, de la mente y de las redes neuronales artificiales. En esta obra y en los tres trabajos siguientes se puede identificar la relación entre la mente humana y la Inteligencia Artificial por uno de los físicos y matemáticos más relevantes de los últimos cien años. Tales obras son: “La nueva mente del emperador, (1989); “Las sombras de la mente: hacia una comprensión científica de la consciencia”, (1996); y “Lo grande, lo pequeño y la mente humana”. Este último trabajo publicado en 1999 es un libro conjunto de Penrose con la colaboración de varios autores: Abner Shimony, Nancy Cartwright, Stephen Hawking, y Malcolm Longair.

Un análisis de estos trabajos nos permite identificar la teoría completa sobre la mente humana de Roger Penrose; teoría que, basándose en los teoremas de Gödel enuncia Penrose a través de su famoso “Axioma de imposibilidad de la equivalencia entre la mente humana y la computabilidad informática o simbólica”. Este axioma de Penrose establece que hay una diferencia entre “lo que se puede probar mecánicamente mediante algoritmos de cómputo”, y “lo que los humanos pueden ver como cierto”. Para Penrose la inteligencia humana no es mecánica, por lo que los algoritmos base de la Inteligencia Artificial no pueden volar a su nivel por más capacidad de cómputo superior que, puedan albergar. El problema Halting apoya la teoría de la mente de Penrose.

En un acto de gran honradez intelectual, Marvin Lee Minsky fundador del laboratorio de Inteligencia Artificial del MIT en un ensayo escrito con Harry Harrison “The Turing Option”(1992), declara la veracidad del problema Halting, afirma que la inteligencia humana es capaz de errar y de comprender declaraciones que son en realidad inconsistentes o falsas, situación contraria a lo que establecen los sistemas de Inteligencia Artificial, basados en reglas simbólicas axiomáticas. Minsky que veía con frecuencia a Gödel señaló que el lógico checo, le expresó a él en persona que creía que los seres humanos tienen una forma intuitiva, no solamente computacional, de llegar a la verdad y por tanto su teorema no limita lo que puede llegar a ser sabido como cierto por los humanos. Esta declaración de Gödel es fundamental ¿Por qué tiene trascendencia lo expresado por Marving Minsky? Por la trascendencia de Minsky el verdadero fundador de la teoría de las redes neuronales artificiales. El libro escrito por Minsky con la colaboración de Seymour Papert “Perceptrones”, estableció el trabajo fundacional de la teoría de las redes de neuronas artificiales, referencia clave de los trabajos de los premios Nobel de Física 2024 John Hopfield y Geoffrey Hinton.

¿Por qué Marvin Minsky no obtuvo el premio Nobel de física? En primer lugar, porque falleció en 2016 cuando comenzó al gran auge mundial de la Inteligencia Artificial. Hubiera sido emocionante que el Comité Nobel de Física 2024, hubiera incluido como premio Nobel póstumo a Marvin Minsky. Propuesta a “La Real Academia Sueca de Ciencias”, que hemos hecho en otro artículo. En segundo lugar, si viviera Marvin Minsky no le hubieran dado el premio nobel de física, porque después de su trabajo de “Perceptrones” donde desarrolló las bases científicas y operacionales de las redes de neuronas artificiales, escribió numerosos artículos subsecuentes muy críticos, implacablemente críticos de esta vertiente de la Inteligencia Artificial. En torno a estos temas de sumo interés por el impresionante avance tecnológico que caracteriza a la construcción continua e incesante de redes neuronales artificiales, y sus limitaciones en el ámbito de la Inteligencia Artificial, recomendamos ampliamente el libro de Erik J. Larson “El mito de la inteligencia artificial: Por qué las máquinas no pueden pensar como nosotros lo hacemos” (2023).

Nominaciones estelares al premio Nobel en el campo dinámico de la química 2024

El Premio Nobel de Química 2024 fue otorgado a tres grandes investigadores, a David Baker “por el diseño computacional de proteínas”, a Demis Hassabis y John Jumper “por la predicción de la estructura de las proteínas”. El primero, David Baker, utilizó un diseño computacional de ominado Rosetta por él creado para dominar con profundidad los componentes básicos de la vida y a partir de ello crear proteínas completamente nuevas. Por su parte, Demis Hassabis y John Jumper han utilizado predominantemente con gran éxito por cierto la Inteligencia Artificial para predecir la estructura de casi todas las proteínas conocidas. Si David Baker ha creado proteínas nuevas a partir de sofisticados procedimientos computacionales, Hassabis y Jumper utilizaron métodos directos y sofisticados de Inteligencia Artificial para predecir, la estructura tridimensional de las proteínas conocidas. Por esta razón de importancia asimétrica, David Baer se llevó la mitad del premio monetario vinculado al Nobel de química 2024, mientras que Demis Hassabis y John Jumper se llevaron ambos la otra mitad.

Las realizaciones de estos tres premios Nobel en el campo de la química demuestran, el enorme poderío que lleva en su seno esta gran ciencia. Un novelista famoso, Wilkie Collins señaló que si Arquímedes había dicho desde el ámbito de la mecánica física “Dadme un punto de apoyo y moveré el mundo”, el Conde Fosco (personaje literario de Wilkie Collins de su novela “Woman in White”, 1859-1860) señaló “Dadme unas fórmulas químicas elementales y seré el amo del universo”. Arquímedes al expresar lo que dijo en su famoso aforismo alababa de acuerdo con la versión de Papus de Alejandría el poderío físico de la “Palanca”. El gran historiador Heródoto, por ejemplo, señaló con gran admiración que la construcción de la Gran Pirámide de Egipto está construida por más de dos millones de bloques de piedra y cada bloque pesaba poco más de dos toneladas. Con cuerdas y palancas se elevaban de escalón en escalón los bloques de piedra por los constructores egipcios (Cita tomada de Heródoto del libro segundo de sus nueve libros que componen “Historias”. Este libro segundo denominando “Euterpe” por Heródoto narra con admiración y arrobo la forma en que se construyó la Gran Pirámide egipcia).

El aforismo del conde Fosco versa sobre el poder de la química, aunque tenga connotaciones puramente literarias. Fue inventado dicho aforismo por el escritor Wilkie Collins en su novela citada líneas más arriba que, narra una intriga policiaca en la que para obtener una rica herencia monetaria, Percival Glyde y su amigo el conde Fosco aprovechando el gran parecido físico de dos mujeres (Anne Catherick y Laura Fairle) planean matar a Anne Catherick internada en un manicomio, y luego sustituirla en ese lugar por la rica heredera Laura Fairle casada con Mr. Glyde y así cobrar la herencia al dar por muerta legalmente a la heredera. El conde Fosco duda en participar en el crimen por que se enamora de Anne Catherick, sufre y se angustia, pero lo domina su pasión descomunal hacia el dinero, por lo que decide cometer el crimen y participar del botín y saldar deudas financieras que tiene en Italia. El plan falla por la acción de otros personajes relevantes de la historia, Walter Hartright un profesor pobre contratado para enseñar (¿química?) a la rica heredera Laura Fairlie de la casa Limmeridge, de la cual se enamora y Marie Halcombe media hermana de Laura. Walter Hartright recuerda mucho a Florentino Ariza el personaje de Gabo de “El Amor en los tiempos del cólera” (1985), ambos son personajes representantes típicos de los amores contrariados. Sin embargo, ambos triunfan por su tenacidad e indeclinablemente constante sentimiento amoroso, y su actuación viril que les reditúa el destino con una recompensa amorosa que justifica su existencia.

Lo que nos interesa de esta historia, digno marco para reseñar a los Nobel de química es que el Conde Fosco es un malevo, pero también es un prodigioso químico, que, sin embargo, ha fracasado en la vida. Se encuentra en una situación social y económica quebrantada, parecida a la que experimenta el personaje de Denis Diderot “El sobrino de Rameau” (1773-1774). El personaje de Diderot es un sagaz y virtuoso intelectual, un prodigioso filósofo que por culpa del devenir capitalista incapaz de adaptarse es convertido en un menesteroso amargado que ronda el café Regency de París. Y, desde su amargura en el dialogo que mantiene con el narrador del cuento, presuntamente Diderot, lanza una crítica corrosiva del capitalismo por considerar que este premia al incompetente, al que se adapta y se arrastra para conseguir poder, mientras que Rameau por su orgullo rebelde, que no es capaz de adular, se sabe un perdedor en la gran rueda social del mecanismo capitalista.

Fosco enfrentado al hecho de poder tener una vida amorosa portentosa (sabe que puede conquistar a Ann Catherick por sus inmensos recursos intelectuales), sin embargo, no quiere tener el destino de Rameau y entonces disponiendo del poder de la química, sucumbe al irrefrenable deseo de permanecer en la cumbre de la elite económica y, para ello, decide colaborar asesinando a Ann Catherick. El dialogo pertinente de la novela de Collin Wilkings que versa sobre el inmenso poder de la química como ciencia es el siguiente: “He pasado los mejores años de mi vida -dice el Conde Fosco-consagrado con ardor a estudiar la medicina y la química. Esta última ciencia ha tenido siempre para mí un atractivo irresistible a causa del poder enorme y casi ilimitado que confiere a sus adeptos. Los químicos podrían, si quisiesen, regir los destinos del género humano ¿Por qué es ello posible se pregunta Fosco en la novela? Fosco Responde: Dicen que el espíritu gobierna al mundo. ¿Más, quién gobierna al mundo? El cuerpo sin duda. El cuerpo permanece merced del potentado supremo que es el químico; figúrese que soy un químico, y que, en el momento de concebir Shakespeare, el drama Hamlet y se prepara a realizar esa concepción magistral, mezclo su alimento con unos granos de un polvo químico determinado y entonces le hago caer al inmortal bardo, en una soñolencia, en una postración grande, ¿Qué resultaría? Que subordinaría su inteligencia a la acción de su cuerpo tan bien, que su pluma emitiría infaliblemente el más abyecto galimatías que ha degradado jamás el papel. Resucíteme en circunstancias análogas al ilustre Newton. Les garantizo que, al ver su famosa manzana con el polvo químico ingerido que le proporcione, se la comería en lugar de sacar de su entraña el sistema de la gravitación. La comida de Nerón con el polvo químico le haría el más dulce de los mortales, y una bebida con polvos químicos bien administrada a Alejandro Magno le hará volver la espalda así que viese al enemigo. Tal es el poder supremo de la química”.

Este poder supremo de la química ha crecido enormemente en la época de la Inteligencia Artificial del siglo XXI. De ahí, la hora o mejor dicho el momento propicio, en que, con oportunismo sabio, el Comité Nobel de química de Suecia, decidiera otorgar el premio Nobel a los tres químicos citados.

Reflexiones del Nobel de química otorgado a Demis Hassabis y John Jumper en el 2024

¿Cuál fue el modelo de Inteligencia Artificial que desarrollaron Hassabis y Jumper para su famosa predicción con la cual obtuvieron el premio Nobel de química? El modelo creado se denominó AlphaFold2 y los derechos de patente pertenecen a DeepMind empresa cuyo principal accionista es Google. El modelo Hassabis-Jumper de predicción basado en la Inteligencia Artificial revela, vastos procesos mecanicistas de comprensión de la estructura de las proteínas, de aproximadamente cien mil proteínas. La magnitud de este alcance pese a la proeza que significa es todavía marginal, si se le compara con la magnitud de la población que es de billones de secuencias proteínicas que la ardua labor de investigación ha detectado. Pero este pequeño paso dado por Hassabis y Jumper es un gigantesco paso para la humanidad.

¿Qué obstáculo fundamental enfrenta la humanidad (mujeres y hombres) para desentrañar la estructura de las proteínas y sus secuencias? Las máquinas de la Inteligencia Artificial todavía no han sido capaces de representar la simulación computacional molecular pertinente. La biología parece seguir una evolución impredecible, lo que inhibe determinar las condiciones de estabilidad porque son en extremo cambiantes, lo que a su vez dificulta modelar con precisión la naturaleza de la física de las proteínas. ¿Entonces cuál es el progreso que indujeron Hassabis y Jumper que los hizo acreedores al Nobel de química? Hassabis y Jumper han utilizado el modelo computacional AlphaFold2 diseñado por ellos, para predecir estructuras proteicas tridimensionales (3D) a partir de la misma secuencia de proteínas. Estos investigadores enfrentan un dilema: Por un lado, seguir el camino de las interacciones físicas, en la que es decisiva una profunda inteligibilidad de las fuerzas dinámicas que, impulsan las interacciones moleculares, en escenarios de simulación termodinámica o cinética. Este es el camino de la física de las proteínas. Por otro lado, seguir un camino que requiere contextos de estabilidad de las proteínas lo que representa un desafío monumental en virtud de que es difícil precisar dichos contextos. Este segundo camino es el evolucionista o enfoque bioinformático o bioquímico informático. Este camino intenta solventar las limitaciones halladas por el análisis bioinformático fisico de la estructura de las proteínas, al determinarse una evolución cambiante muy compleja de las proteínas.

Este enfoque es experimental, de naturalezas bioquímico informático y busca determinar las correlaciones cambiantes de las estructuras proteicas, mediante las técnicas de la tecnología genómica, y el uso del Maching Learning para identificar dichas correlaciones. Las predicciones antes del modelo Hassabis-Jumper tenían baja calidad desde un punto de vista experimental. Con el modelo de la red neuronal AlphaFold2 de Inteligencia Artificial (con el poder de la bioquímica informática), las predicciones mejoraron sustancialmente y demostraron palmariamente el tremendo poder de la bioquímica. Ambos investigadores recibieron el premio Nobel de química por haber desarrollado el primer enfoque computacional, capaz de predecir estructuras de proteínas con un alto nivel de precisión experimental en la mayoría de los casos.

La precisión de las estructuras de proteínas con base al método de Inteligencia Artificial AlphaFold2 registró muy bajos intervalos probabilísticos, por lo que su precisión se compara con la precisión con baja probabilidad del “Principio de Incertidumbre” de Heisenberg (19277) que le granjeó el premio Nobel de física en 1932. Como sabemos en el ámbito de la mecánica cuántica, el “Principio de Incertidumbre” de Heisenberg indica que determinados pares de magnitudes de las partículas elementales (electrón, protón, número cuántico de rareza) observables y complementarias no puedan determinarse con precisión, aunque el margen de indeterminación probabilística sea muy pequeño, y no se haya observado en más de un siglo que, dicho intervalo probabilístico se haya quebrantado en el comportamiento de las partículas elementales. La fórmula de la relación de indeterminación de Heinserberg señala que la multiplicación de la incertidumbre de la posición por la incertidumbre del momento es mayor o igual a la división que resulta de la constante de Planck y cuatro veces el número Pi. En el límite, la imprecisión es pequeña, comparable a los pequeños límites de error de las predicciones de la estructura de las proteínas mediante el uso de la Inteligencia Artificial con la tecnología AlphaFold2.

Por lo anterior, es claro que el método AlphaFold2 mejora sustancialmente la precisión de la predicción de estructuras de las proteínas mediante el uso de nuevas arquitecturas de redes neuronales y los procedimientos correlativos basados en las limitaciones evolutivas, físicas y geométricas de las estructuras de proteínas. El Alpha Fold2 creado en 2020 es una mejora del método Alpha Fold sencillo. En efecto, AlphaFold2, en la segunda mitad de 2021 utilizando Deep Mind y el Instituto de Bioinformática de Europa (IBE) con la tecnología de el “Aprendizaje Automático” (Machine Learning) identificó y genialmente liberó estructuras de más de 200 millones de proteínas por lo que cubre casi todas las proteínas conocidas del planeta y si uno se apura del universo.

Sin duda el Conde Fosco si viviera y fuera un personaje real y no literario sonreiría satisfecho del inmenso poder que está adquiriendo la química con el auxilio de la biología informática. Está fuera de duda, que este trabajo sobre las proteínas es a la fecha actual, quizá la más grande contribución de la Inteligencia Artificial en la historia científica del mundo. Merecido pues es el Premio Nobel de química, otorgado conjuntamente a Demis Hassabis (británico) y John Michael Jumper (estadounidense), quienes como se señaló anteriormente trabajaron en la compañía británica DeepMind y desarrollaron el modelo de inteligencia artificial AlphaFold2 con el que lograron predecir la estructura tridimensional de casi todas las proteínas conocidas hasta la fecha.

¿Y qué utilidad y aplicaciones en la vida cotidiana tiene el AlphaFold2? Pues según la red social de noticias de Inteligencia Artificial José Manuel López y Ruth García López Nicolás (SER100), desde el desarrollo de nuevos fármacos, el descubrimiento de biomarcadores utilizando Inteligencia Artificial puede servir para el diagnóstico temprano y para el monitoreo de enfermedades, facilitando tratamientos personalizados; a la investigación en enfermedades raras, o para las Proteínas virales, que durante la pandemia ayudó a los científicos a comprender el mecanismo de infección del virus SARS-CoV-2 y desarrollar concomitantemente tratamientos antivirales y vacunas de manera más rápida. Cuando en marzo de 2020 sufrí de Covid y fui internado a la clínica, los médicos me dijeron que no había tratamiento contra el virus y que no habría en los próximos cinco años el tratamiento médico adecuado. No contaban los médicos con el notable avance impulsado por la Inteligencia Artificial.

Reflexiones del Nobel de química otorgado a David Baker en el 2024

David Baker bioquímico y biólogo computacional, obtuvo la otra mitad del premio Nobel de química él fue el responsable de desarrollar el programa RosettaFold, una herramienta innovadora basada en la Inteligencia Artificial, con el propósito expreso de predecir la estructura de proteínas a partir de su secuencia de aminoácidos, lo que podrá servir para diseñar nuevas proteínas terapéuticas para combatir enfermedades. Por ejemplo, se pueden crear proteínas que ataquen células cancerosas o eliminen proteínas tóxicas, como en enfermedades neurodegenerativas. También para diseñar enzimas que pueden descomponer contaminantes ambientales, como plásticos y productos químicos peligrosos, ofreciendo soluciones sostenibles para la descontaminación. O para el desarrollo de vacunas personalizadas más efectivas o en la optimización de enzimas industriales, que mejoren la eficiencia de procesos de producción, como la fabricación de biocombustibles o productos químicos, reduciendo costos y residuos.

¿Qué beneficios se derivaron del algoritmo Rosetta creado por David Baker?

Los expertos indican que “El algoritmo de Rosetta” es quizás el método actualmente más exitoso para la predicción de nuevas estructuras de proteínas, creadas de manera artificial. Es un algoritmo muy sofisticado de Inteligencia Artificial que utiliza simulaciones Montecarlo, todo lo cual permite integrar fragmentos cortos de proteínas conocidas para generar nuevas proteínas artificiales similares a las que se encuentran en el orden natural. Efectúa el algoritmo Rosetta vastas simulaciones utilizando información en secuencia con predicciones exitosas de estructuras proteínicas nuevas. El proceso es muy estilizado, por ello cada predicción de estructura, incluye numerosas simulaciones cortas a partir de diferentes semillas aleatorias lo que a la vez permite generar un conjunto de estructuras proteínicas artificiales que tienen interacciones locales favorables y propiedades globales similares a las de las proteínas del orden natural.

En las famosas evaluaciones comunitarias mundiales, denominadas “Critical Assessment of Techniques for Protein Structure Prediction -CASP-” (Evaluación crítica de las técnicas para la predicción estructural proteica) que desde 1994 se han venido realizando de manera bianual, para analizar los métodos de predicción de las estructuras proteínicas nuevas, el algoritmo de Rosetta de David Baker es el que mejor puntaje tiene. Lo que ha conducido a que el método Rosetta se extienda a otros problemas de modelaje proteínico. Verbigracia, las mejoras en las estrategias de ensamblaje de fragmentos que permiten modificaciones más locales de la conformación de proteínas son impulsadas por el algoritmo Rosetta y los realiza con gran eficiencia computacional no importa que se trate de complejos programas de simulación Montecarlo. La mejor síntesis sobre el algoritmo Rosetta puede encontrarse en un ensayo breve intitulado “Protein Structure Prediction Using Rosetta” escrito en 2004 por Carol A.Rohl, Charlie E.M. Strauss, Kira M.S.Misura, y el Nobel de química David Baker.

¿Resuelven la química y la bioquímica el problema planteado por los teoremas de Gödel?

La estructura del cerebro humano, su poderío, su sutileza es un orden natural que ha evolucionado periódicamente, y que la tecnología de Inteligencia Artificial pretende simular hasta alcanzar su mismo nivel y si es posible sobrepasarlo como afirmó el premio Nobel de física, 2024 Geoffrey Hinton, lo que sin embargo no ha sucedido a la fecha. A diferencia de la simulación física de los procesos de la mente y del cuerpo, que como vimos presenta limitaciones cognitivas, la simulación con herramientas de la bioquímica basadas en Inteligencia Artificial sobre la predicción de las estructuras de las proteínas en su orden natural, y la creación de nuevas proteínas bajo un orden creado o artificial tampoco ha resuelto (ni siquiera lo ha enfrentado) el dilema planteado por los teoremas de Gödel que, implica que la Inteligencia Artificial a pesar de su inmenso poderío de computo no alcanza a entrever las sutilezas más profundas de la mente humana, no obstante la limitada capacidad de cálculo de ésta última.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas

Suscríbete