Gödel y los mundos posibles de la IA
Andrés Piña
Ante la novedad discursiva que ha planteado el uso de la inteligencia artificial, es preciso revisar la estructura demostrable del Teorema de incompletitud de Gödel como un paradigma epistemológico que nos permita formular una nueva serie de interpretaciones.
Ya sea sobre la posibilidad concreta del conocimiento, a partir del establecimiento matemático general, o ya sea a partir de la deducción que establece que toda aproximación racional no está terminada, en la medida en que siempre estamos a la espera de una nueva proposición que afirme, cancele o expanda la interpretación de un axioma determinado.
Lo anterior, más que probar que los sistemas formales carecen de resoluciones, lo que prueba es la evidente necesidad por parte de las demostraciones lógicas de construir nuevos paradigmas que nos permitan conocer la realidad. En ese sentido, es como si el mismo Gödel pensara que con cada nueva interpretación queda una grieta, un espacio donde se puede vislumbrar la posibilidad de otro mundo. De ahí que la figura concreta del discurso sobre la IA sea un punto de partida donde la racionalidad no se agota en un solo modelo, sino en una síntesis donde la inteligencia artificial más que sustituir a la creatividad, la puede complementar creando, así, una nueva modulación en el terreno de la racionalidad.
¿Qué sucede cuando decimos que una máquina piensa?
La condición de posibilidad para codificar críticamente un análisis sobre las implicaciones de un registro racional en la computación y en general en la informática está dado por la conferencia que Alan M. Turing pronunció en 1947, en el Physical Laboratory de Londres. Dicha conferencia se debe entender en el contexto posterior a la Segunda Guerra Mundial, donde todavía existía un interés por desentrañar las posibilidades de los desarrollos tecnológicos e indagar cómo éstos podían o no afectar desde su lógica a un sistema determinado.
Es por eso por lo que a partir del interés de Turing por las implicaciones que se derivan del cuestionamiento sobre la capacidad para pensar que tiene una máquina, afirma esto:
La idea que subyace a la base de los computadores digitales puede explicarse diciendo que estas máquinas están construidas para llevar a cabo operaciones que podrían ser realizadas por un calculador humano. (Turing, 2012, 33)
Es decir, en el núcleo de la pregunta anterior sobre cómo piensan las máquinas se encuentra la suposición de que lo hacen a partir de la imitación del pensamiento humano. Y aunque el desarrollo actual de la inteligencia artificial no sostendría necesariamente que las deducciones de un ordenador son de esta manera, hay que reconocer que la idea popular de que nos imitan y por ende realizan mejor nuestras funciones se encuentra en esta primera teorización. Hecho, por otro lado, que el mismo matemático inglés reconoce cuando comenta:
¿No pueden realizar las máquinas algo que debería calificarse como pensamiento, pero que es muy diferente de lo que hace el hombre? Esta objeción es muy seria; pero al menos podemos decir que sí, pese a todo, resulta posible construir una máquina que realice satisfactoriamente el juego de imitación, la referida objeción no deberá preocuparnos.(Turing, 2012, 28)
Lo anterior no necesariamente se puede aplicar a la estructura mediante la cual funcionan las computadoras y los procesadores actualmente. Pero lo interesante es que seguimos pensando equívocamente el problema, a partir de la estructura concreta y simbólica de la imitación. Y como dice Turing, es preciso cuestionarnos si no estamos pretendiendo que las máquinas piensen como nosotros cuando, quizá, si lo hacen, lo hacen de una manera distinta. Si esto fuera cierto, entonces lo único que nos quedaría es normativizar y regular la inteligencia artificial en el ámbito social, pero sin cancelarla o reducirla a un mero cuento de terror infantil.
Ahora bien, la imitación en sí misma presenta un problema lógico matemático en su desenvolvimiento, y es el Teorema de incompletitud de Gödel. Sin embargo, veremos cómo esto no es un problema del todo, ya que si lo interpretamos de manera distinta, podría representar una corrección epistémica, a la manera que tenemos para aproximarnos a la IA.
Una singularidad elemental
Turing sostiene en el apartado de objeciones a la premisa sobre si una máquina puede pensar, debemos tener en cuenta lo siguiente:
Hay una serie de resultados de la lógica matemática que pueden usarse para demostrar que hay limitaciones a los poderes de las máquinas de estado discreto. El resultado mejor conocido es el llamado teorema de Gödel, que establece que, en un sistema lógico cualquiera, que sea suficientemente poderoso, pueden formularse enunciados que no se dejan ni demostrar ni refutar dentro del sistema, a no ser que, tal vez, el sistema sea inconsistente. (Turing, 2012, 53)
Esto en una primera instancia destruiría la posibilidad infinita que se presupone que tienen las máquinas para la resolución de axiomas. Si en su proceso deductivo imitan las funciones cognitivas, pero lo hacen de mejor manera, eventualmente llegarían a la premisa de Gödel y, por lo tanto, reconocerían que hay resoluciones que no se encuentran en determinadas matrices, sino que más bien son indecibles.
¿Qué es lo que dice esta singularidad epistémica del Teorema de incompletitud? Pues bien, afirma que:
Puede mostrarse en particular que los conceptos de «fórmula», «figura de demostración» y «fórmula demostrable» son definibles dentro del sistema PM, esto es, se puede, por ejemplo, aducir una fórmula F(v) de PM con una variable libre v (del tipo de una sucesión de números) tal que F(v) materialmente interpretada diga: ves una fórmula demostrable. Producimos ahora una proposición indecible del sistema PM, es decir, una proposición A para la cual ni A ni no-A son demostrables… (Gödel, 2016,89)
Es decir, hay sistemas inconclusos. O en otras palabras, si la imitación fuera la medida, eventualmente las máquinas llegarían a un problema cuya solución está dada en otra proposición que aún no se encuentra demostrada.
Por lo tanto, pensar que la imitación es la base mediante la cual puede haber un desplazamiento de la razón humana, por decirlo así, es falsa en la medida en que siempre se enfrentaría a problemas de este tipo que exigirían soluciones que no se encuentran en el propio sistema.
Pero qué pasa si, dejando de un lado la imitación y sus paradojas, examinamos la posibilidad de que los teoremas Gödel nos permitan acercarnos a pensar la IA. Qué pasa, en pocas palabras, si de la mano de Gödel podemos indagar la relación que existe entre la IA y la inteligencia humana. Qué pasaría si, más bien, reconocemos que estamos en el terreno de las proposiciones indecibles y lo que nos queda no es condenar dogmáticamente el uso de la inteligencia artificial, sino ver de qué manera se puede incorporar, dado que en términos lógicos hay un espacio para lo indecible de la interpretación, o, dicho de otra manera, dado que todo sistema encuentra a veces su respuesta fuera de sí mismo. En ese caso, ¿no cabría darle una oportunidad a la inteligencia artificial, para ver de qué forma puede complementar nuestro propio desarrollo racional? Y, tal vez, al abrir esta puerta abriríamos todo un mundo distinto al punto de cambiar nuestra propia concepción de inteligencia, dibujando así otras posibilidades.
Bibliografía:
- M. Turing, (2012) ¿Puede pensar una máquina?, trad. Amador Antón y Manuel Garrido, Oviedo: KRK Ediciones.
- Kurt Gödel, (2016) Sobre proposiciones formalmente indecibles de los Principa Mathematica y sistemas afines, I, Manuel Garrido, Alfonso García Suárez y Luis Manuel Valdés Villanueva, Oviedo: KRK Ediciones.