La complejidad computacional, esa revolución filosófica que vendrá

La teoría computacional ha tenido una profunda influencia en el pensamiento filosófico, pero su mayor efecto aún está por llegar.

Desde 1930, la teoría de la computación ha influido profundamente en el pensamiento filosófico, sobre todo en temas tales como la teoría de la mente, la naturaleza del conocimiento matemático y la perspectiva de la inteligencia artificial. De hecho, es difícil pensar en un teoría que haya tenido un mayor impacto en la filosofía.

Sin embargo, existe una revolución filosófica aún mayor esperando su momento. La teoría de la computación es como un pececillo filosófico en comparación con el potencial de otra teoría que en la actualidad domina el pensamiento acerca de la computación.

Al menos, esta es la opinión de Scott Aaronson, un científico computacional del Instituto de Tecnología de Massachusetts. Él presenta un persuasivo argumento acerca de que la teoría de la complejidad computacional va a transformar el pensamiento filosófico de una amplia gama de temas, como la naturaleza del conocimiento matemático, los fundamentos de la mecánica cuántica y el problema de la inteligencia artificial.

La teoría de la complejidad computacional hace referencia a la cuestión de qué recursos se necesitan para resolver a escala un problema junto con alguna medida del tamaño de un problema, al que llaman n. Fundamentalmente, hay dos respuestas. Ya sea la escala del problema razonablemente lenta, como que n, n^2 o alguna otra función polinómica de n. O una escala excesivamente rápida, como que 2^n, 10000^n o alguna otra función exponencial de n.

Así pues, mientras que la teoría de la computación nos dice si algo es computable o no, la teoría de la complejidad computacional nos dice si se puede lograr en unos pocos segundos o si va a llevarnos más tiempo que la vida del Universo.

Esto es muy importante. Aaronson lo expresa así: «Piense, por ejemplo, en la diferencia entre leer un libro de 400 páginas a leer todos los posibles similares, o entre escribir un número de mil dígitos a contar hasta llegar a ese número.»

Lo que viene a decir es que, es fácil imaginar cuando conocemos algo si es computable o no, el problema de cuánto tiempo se tarda es más un problema de ingeniería que de filosofía; pero luego viene a mostrar cómo las ideas que hay detrás de la complejidad computacional se pueden extender a muchas áreas del pensamiento filosófico.

Tomemos el problema de la inteligencia artificial y la cuestión de si las computadoras nunca podrán pensar como los seres humanos. Roger Penrose, sostiene en su libro «The Emperor’s New Mind» que no pueden. Y aduce que una computadora podrá hacer uso de unas reglas formales fijas, pero nunca será capaz de «ver» la coherencia de sus propias reglas. Lo que distingue a los humanos, es su capacidad para ver esta coherencia.

Una manera de medir la diferencia entre un humano y un ordenador es mediante el test de Turing. La idea es que, si no podemos distinguir la diferencia entre las respuestas dadas por un ordenador y las de un humano, entonces no hay ninguna diferencia apreciable.

Pero imaginemos un ordenador que registra todas las conversaciones que escucha entre humanos. Con el tiempo, este equipo irá construyendo una base de datos considerable que puede utilizar para llevar a cabo una conversación. Si se le hace una pregunta, busca la pregunta en su base de datos y reproduce la respuesta dada por un ser humano real.

De este modo, un computador con una enorme base de datos podría llevar a cabo una conversación que resultaría esencialmente indistinguible de la de cualquier ser humano.

«Así que, si hay un obstáculo fundamental para que las computadoras pasen el Test de Turing, éste no se encuentra en la teoría de la computabilidad», indica Aaronson.

En cambio, hay una manera más fructífera de pensar en la complejidad computacional del problema. Según apunta Aaronson, conforme la base de datos está enfocada en su «trabajo», los recursos computacionales que requiere van creciendo exponencialmente con la longitud de la conversación.

Esto conduce a una nueva y poderosa forma de pensar sobre el problema de la IA. Se podría decir que aunque el enfoque de una tabla de consulta en la base de datos es posible al principio, al tiempo resulta efectivamente poco práctica dado los enormes recursos computacionales que necesita.

Con este argumento, la diferencia esencial entre humanos y máquinas es de índole de complejidad computacional.

Esta es una interesante línea de pensamiento, y de nuevo, uno de los muchos que Aaronson explora con detalle en este ensayo.

Por supuesto, reconoce las limitaciones de la teoría de complejidad computacional. Muchos de los principios fundamentales de la teoría, como P≠NP, no han sido probados, y muchas de las ideas sólo se aplican a las máquinas de serie y deterministas de Turing, en lugar de la clase más desordenada de computación que se produce en la naturaleza.

No obstante, para Aaronson, estas críticas no da pié a que los filósofos (y a nadie en particular) desechen arbitrariamente los argumentos de la teoría de la complejidad. De hecho, muchas de estas críticas plantean interesantes cuestiones filosóficas en sí mismas.

La Teoría de la complejidad computacional es una disciplina relativamente nueva, que aprovecha los avances logrados en las décadas de 1970, 80 y 90. Y por eso su mayor impacto aún está por venir.

Aaronson nos dirige hacia algunos de ellos, en un ensayo estimulante, entretenido y muy legible. Si tienes una o dos horas disponibles, vale la pena leer.

Publicado por Pedro Donaire
http://bitnavegante.blogspot.com/2011/08/la-complejidad-computacional-esa.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+bitnavegante+%28BitNavegantes%29&utm_content=Google+Reader&utm_term=Google+Reader

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.