Es bastante gratificante abrir un manual clásico de Inteligencia Artificial, como es el de Stuart Russell y Peter Norvig (R&N a partir de ahora), y encontrar un capítulo entero dedicado a los fundamentos filosóficos de la disciplina. Qué lástima que esto no ocurra en ninguna otra disciplina tecnológica ni ciencia natural (ellos se lo pierden – podríamos decir. La desgracia es que lo perdemos todos).
El caso es que me resulta algo incómodo contemplar como la historia de la IA, tal y como R&N la presentan, parece haber sido un enfrentamiento entre ingenieros y filósofos (al menos una parte interesante de ella). Da la impresión de que los primeros se han mostrado muy optimistas y convencidos de los logros y avances de la IA, mientras que los filósofos solo han estado poniendo trabas y pegas a tal progreso. No me gusta, para nada, que mi gremio parezca estar en el bando de los malos, haciendo un rol parecido al de inquisidores que pretenden parar una nueva revolución científica. Pueden interpretarse figuras como Turing, Simon, Minsky, etc. como si fueran galileos de una nueva ciencia y filósofos como J.R. Lucas, Dreyfus o Searle como oscuros belarminos dispuestos a quemar como herejes a estos valientes pioneros.
Evidentemente esta interpretación de la historia es sesgada e ingenuamente simplista. En primer lugar porque entre los críticos de la IA no están solo filósofos: hay neurólogos, psicólogos e incluso matemáticos y destacados ingenieros informáticos. Marvin Minsky se muestra muchas veces muy pesimista y Joseph Weizenbaum fue un avezado crítico. Y en segundo lugar, es que no creo que la intención de filósofos como Dreyfus o Searle sea ir en contra de la ciencia o el progreso. No hay que entender la crítica como algo destructivo o negativo. Espero, y confío mucho en que así será, que las críticas filosóficas hayan servido, y sirvan, para pulir y encauzar vías de investigación y no, desde luego, para paralizar vías prometedoras. En cualquier caso creo que los ingenieros no suelen hacernos mucho caso, por lo que el poder destructivo de la crítica filosófica será, seguramente, muy débil y, en el peor de los casos, no llegará a hacer ni cosquillas al progreso de una tecnología tan en boga como es la IA (y que mueve tantos millones de dólares).
Dicho esto vamos a discutir sobre un concepto crucial basándonos en un texto del capítulo filosófico del manual de R&N. Una de las críticas más importantes de la filosofía a la IA consiste en afirmar que una mente simulada en un computador no será una mente real sino solo una copia. Podríamos tener un programa que superara el test de Turing pero que no pensara realmente, sino que solo simulara que lo hace. Para resolver la validez de esta crítica se hace necesario esclarecer el mismo concepto de simulación. Vemos cómo lo hacen R&N:
En 1848, Frederick Wöhler sintetizó urea artificial por primera vez. Este fue un hecho importante porque probó que la química orgánica y la inorgánica se podían unir, cuestión discutida muy fuertemente. Una vez que se consiguió la síntesis, los químicos reconocieron que la urea artificial era urea, porque tenía todas las propiedades físicas adecuadas. Igualmente, los edulcorantes artificiales son innegablemente edulcorantes y la inseminación artificial es innegablemente inseminación. Por otro lado, las flores artificiales no son flores, y Daniel Dennett señala que el vino artificial Chateau Latour no sería vino Chateau Latour, aunque no se pudiera distinguir químicamente, simplemente porque no se fabricó en el lugar adecuado ni de la forma adecuada. Ni tampoco un Picasso artificial sería un Picasso, independientemente del aspecto que tenga el cuadro.
Podemos concluir diciendo que en algunos casos el comportamiento del artefacto es importante, aunque en otros sea el pedigrí del artefacto lo que importa. Lo importante en cada caso parece ser una cuestión de convención. Sin embargo para las mentes artificiales, no existe una convención, y tenemos que depender de las intuiciones. El filósofo John Searle (1980) tiene una convención muy fuerte:
Nadie piensa que la simulación por computador de una tormenta nos va a mojar… Y, ¿cuál es la razón de que cualquier persona en su sano juicio suponga que la simulación por computador de los procesos mentales tendría realmente procesos mentales?
Aunque sea fácil reconocer que las simulaciones por computador de las tormentas no nos van a mojar, no está claro cómo aplicar esta analogía a las simulaciones por computador de los procesos mentales. Después de todo, la simulación de una tormenta en Hollywood utilizando aspersores y máquinas de viento sí que moja a los actores. La mayoría de las personas se sienten cómodas diciendo que la simulación por computador de la suma es la suma, y la de un juego de ajedrez un juego de ajedrez. ¿Son los procesos mentales parecidos a las tormentas o son más parecidos a la suma o al ajedrez, o se parecen al Chateau Latour y al Picasso…, o a la urea? Todo depende de la teoría de los estados y los procesos mentales.
Siendo groseramente materialistas vamos a decir que algo es una copia perfecta de un original si es físicamente indistinguible de él (como la urea sintética de la natural). Si aceptamos esta definición, las computadoras no son físicamente similares a los cerebros humanos, por lo que, en el mejor de los casos, serían una paupérrima simulación de la mente humana. Nótese que con esta definición no superamos el ejemplo del Dennett: dos botellas de Chateau Latour, a pesar de que sean químicamente indistinguibles, una podría ser auténtica y otra una copia. Pero para nuestro caso no tiene importancia. Dennett está, sencillamente, utilizando otra definición de copia diferente que añade más condiciones diferentes para serlo: un Chateau Latour además de ser químicamente similar a otro, deberá haber sido producido en un viñedo de Burdeos, concretamente en el de Chateau Latour. Lo mismo ocurre con las obras de arte. Un Picasso auténtico no tiene que parecerse a nada, solo tiene que haber sido hecho por Pablo Picasso. Evidentemente, para comparar la mente con un computador es absurdo utilizar estas definiciones.
Sin embargo, lo que no es absurdo es pensar que nuestra definición materialista es demasiado restrictiva ¿Por qué algo físicamente diferente a una mente no va a poder hacer lo mismo que la mente? Si nos vamos a los otros dos ejemplos de R&N, la suma y el ajedrez, encontramos que computadoras físicamente diferentes de nuestros cerebros pueden hacer lo mismo que éstos: mi ordenador suma y juega al ajedrez de verdad. Pero, ¿hacen realmente lo mismo?
El funcionalismo, la gran teoría que hay debajo de la IA fuerte, al entender los estados mentales como estados funcionales (grosso modo, las instrucciones de un programa), no diferencia lo que hace un ordenador de una mente humana si la función del estado mental y de la computación informática son la misma, es decir, desencadenan la misma conducta. Por ejemplo, la creencia en que va a llover que causa que yo use un paraguas, será lo mismo, y por lo tanto no una mera simulación, de la computación abstracta que lleve a un computador a predecir que va a llover y a usar, en consecuencia, un paraguas.
Pero el funcionalismo peca de resultadista, es decir, lo único que compara de dos estados funcionales (uno mental y otro computacional) es el resultado. No se fija en el proceso. Si yo tengo un programa que juega al ajedrez, el resultado, el movimiento competente de las piezas, puede ser indistinguible del humano. De hecho, los programas de ajedrez actuales, y desde hace ya bastantes años, superarían sin el más mínimo problema un Test de Turingorientado al ajedrez. Sin embargo, si hacemos referencia al proceso, a la serie de mecanismos causales que llevan a la conducta, los programas de ajedrez no juegan al ajedrez igual que los humanos. Un programa de ajedrez tiene un inmenso archivo de jugadas y partidas al que consulta y compara con la jugada actual, a una velocidad vertiginosa (los pulsos eléctricos que se desplazan por las placas electrónicas son muchísimo más rápidos que los de nuestras neuronas). Por el contrario, el ser humano no tiene ni tanta memoria ni tanta velocidad, pero se defiende mucho mejor en jugadas extrañas o novedosas para las que no hay referencia en el pasado. Del mismo modo, su capacidad creativa es mayor, así como todos los elementos emocionales o volitivos que pueden influir en su forma de jugar: los nervios pueden hacer que se equivoque o una reciente experiencia puede hacerle jugar más agresivo o llevarle a arriesgar más…
No hay duda de que los procesos internos de un programa y de un ser humano son enormemente diferentes a pesar de que los resultados puedan ser similares. A la hora de hablar de simulación, solo podríamos decir que la IA ha sido capaz de simular ciertos resultados de la mente humana, es decir, cierta conducta humana pero, de ninguna manera, los procesos internos de pensamiento. Por lo tanto, falta una buena parte del pastel.
Muy buen articulo, un clarificador desarrollo del autor .
Sintetizadada la idea en los ultimos cuatro renglones del texto .
Por lo tanto mientras la programación sea aplicada para servir no deberia haber mayores problemas.