Iniciamos esta serie de Hablando de… con el ácido sulfúrico, sintetizado por primera vez por Geber, cuyas ideas inspiraron la búsqueda en la Edad Media de la piedra filosofal por los alquimistas, el más grande de los cuales fue Paracelso, que eligió ese nombre para compararse con Celso, que se pensaba era un médico romano pero realmente era un tratadista que escribió una de las primeras grandes enciclopedias, la mayor de las cuáles es el Siku Quanshu, que contiene tesoros científicos, literarios y filosóficos como los tres textos clásicos del Taoísmo Filosófico, que tenía un concepto de la realidad muy diferente del occidental hasta la llegada de la “realidad cuántica”, puesta en cuestión por algunos físicos, que se enzarzaron en interesantes debates como las discusiones entre Einstein y Bohr, en las que tomaron parte otros genios como John von Neumann, cuyas ideas de máquinas auto-replicantes, junto con el concepto de una inteligencia artificial comparable a la humana de Turing, llevaron a las primeras predicciones de una “singularidad tecnológica”. Pero hablando de la singularidad tecnológica…
La idea de que llegaría el día en el que hubiera ordenadores de una inteligencia suficiente para diseñar otros, o bien de que pudiéramos escribir programas capaces de escribir programas mejores, capaces de escribir otros mejores, etc., fue expresada de manera explícita por primera vez por Irving J. Good (estadístico y criptólogo). Good se planteó lo siguiente, que puede parecer algo obvio ahora, pero piensa que lo pensó en 1965:
Supongamos que diseñamos una máquina “ultrainteligente”. Sería muy superior a nosotros en numerosos procesos intelectuales. Uno de estos procesos probablemente sería diseñar otras máquinas más inteligentes, capaces de repetir el proceso: se produciría un aumento geométrico de la inteligencia de cada generación, de modo que sería una “explosión de inteligencia”. La primera máquina capaz de hacer eso es la última invención que la humanidad haría.
Pero, como ya dijimos, el genial von Neumann ya había expuesto conceptos parecidos. En una conversación en los 50 con Stanislaw Ulam, ya había predicho que el progreso tecnológico podría producir una singularidad a partir de la cual los “asuntos humanos”, tal y como los entendemos, llegarían a su fin, y no podemos aspirar a comprender lo que vendría después.
Otros, como Ray Kurzwell, han elaborado gráficas que, en su opinión, muestran una tendencia hacia la singularidad. En la siguiente gráfica de Kurzwell puedes ver los sucesos en la historia de la Tierra que han supueso un progreso radical en algún aspecto (la aparición de la vida, el primer homínido bípedo, la agricultura, el primer ordenador…). La gráfica es una recta, pero al ser una escala logarítmica, Kurzwell afirma que el progreso se produce de forma exponencial:
Gráfica logarítmica hacia la singularidad. Crédito: Ray Kurzwell, reproducida bajo Creative Commons License v1.0, Some Rights Reserved.
Como siempre, voy a realizar simplificaciones que pueden ponerte los pelos de punta, pero si te pasa eso, te pido que tengas en cuenta el objetivo y la longitud de este artículo. ¿Cómo podría producirse la singularidad si la “ultrainteligencia” es un ordenador?
Probablemente conoces la Ley de Moore, la cual viene a decir (en términos modernos y simplificados) que la capacidad de proceso de los ordenadores se duplica cada dos años. Pero la Ley de Moore se ha venido cumpliendo (más o menos) mientras los humanos han diseñado los ordenadores. Los humanos tienen que inventar cosas nuevas; otros humanos tienen que crecer, aprender en la Universidad, inventar otras nuevas, etc.
Pero supongamos que construimos el primer ordenador que puede diseñar otro completamente, y olvidémonos por un momento de las limitaciones físicas (de las que hablaremos luego). Y supongamos que ese ordenador es, más o menos, igual de competente al diseñar al siguiente que un humano. Entonces, a los dos años tendríamos un ordenador el doble de capaz…lo que significa que diseñaría al siguiente “el doble de capaz” en sólo un año.
Pero el siguiente sería el doble de capaz que el primero, de modo que sólo tardaría seis meses en doblar su capacidad, el siguiente tres, el siguiente uno y medio…llegaría un momento en el que el único límite para el desarrollo de ordenadores más y más inteligentes sería el proceso físico de construcción, porque serían capaces de realizar mejoras en tiempos arbitrariamente cortos: y llegado ese punto, probablemente ya habrían encontrado una solución que realizase mejoras sobre la marcha, o quién sabe…una vez que hubiéramos multiplicado nuestra inteligencia por una potencia de dos decente, seríamos incapaces de comprender las motivaciones, los razonamientos y los actos de esa inteligencia.
Dicho de otra manera: cuando alguien es un poco más inteligente que tú, puedes darte cuenta de ello y relacionarte con ellos. Pero cuando esa inteligencia es muchísimo más grande (por ejemplo, un ratón y un humano), los conceptos que maneja la inteligencia superior no son comprensibles por la inferior. Puedes entender que alguien haga operaciones en su cabeza más rápido que tú, pero ¿cómo puede un ratón entender internet? Éso sería la singularidad tecnológica.
Desde luego, hay muchos pensadores que creen que la idea es ridícula. De hecho, algunos piensan que el ritmo de progreso tecnológico_ disminuirá_ con el tiempo, en vez de aumentar, o que la humanidad nunca dejará que se produzca la singularidad, poniendo límites artificiales al desarrollo de la ultrainteligencia. En The Economist se publicó un artículo en el que se reían de estas estimaciones diciendo que, según las proyecciones, las maquinillas de afeitar tendrían 15 cuchillas en 2015. (Por cierto, ya veremos - si me llegan a decir que las habría de cuatro cuchillas hace cinco años me hubiera reído).
Una crítica común es que la miniaturización en los ordenadores tiene un límite, que la disipación de calor en los circuitos y otros procesos físicos impedirán mantener el ritmo de avance actual. Sin embargo, sólo hace falta un avance para que cambie el concepto completamente: puede que sean las redes, la nanotecnología, la computación cuántica…
Puede incluso ser la biotecnología: ¿te imaginas cambiar nuestro ADN para realizar computación “en binario” en nuestro cerebro, capaz de diseñar ADN nuevo? ¿o un interfaz de red mente-máquina de modo que nuestra inteligencia disponga, en paralelo, de ordenadores capaces de realizar cálculos para nosotros? Es difícil predecir por dónde vendrá, si viene, esta singularidad, pero el concepto clave es que, si llega un momento en el que el diseñador es capaz de mejorar, el siguiente diseñador tardará menos tiempo en realizar un mejor diseño.
Las consecuencias de la singularidad, si se producen, son absolutamente impredecibles por su misma naturaleza: no podremos comprender lo que viene después. Lo cual es bastante desasosegador. Desde luego, si la singularidad es cuestión de tiempo y lo que venga después no tiene nada que ver con nosotros, podría explicar (de manera menos trágica que una autodestrucción nuclear) tanto el Argumento del Día del Juicio Final o la Paradoja de Fermi. ¿Quién le hubiera dicho al genial italiano que su “paradoja” podría ser explicada mediante máquinas auto-replicantes? Pero hablando de Fermi…