Las historias que muestran a robots que toman consciencia, que sienten y razonan como lo hacen los humanos es algo que venimos viendo hace décadas en el mundo de la ciencia ficción. Esas imágenes de androides que nos ayudan en el hogar, que quieren exterminar la raza humana o que son compañeros de aventuras forman parte del inconsciente colectivo y de nuestra cultura. Como es lógico, no sale de ahí, de la ciencia ficción, de los libros y de Hollywood.
Pero gracias a los avances que vimos en el último año, que llegaron sobre todo de la mano de GPT y OpenAI, hay expertos que empezaron a hablar de la posibilidad real de crear una inteligencia artificial general. ¿Qué significa esto? En pocas palabras se tratarían de algoritmos que podrían hacer juicios de valor, de razonar ante una situación de incertidumbre. Estas máquinas podrían, hipotéticamente, aprender no solo de una manera similar a la que lo hacemos los humanos, sino más rápidamente y, eventualmente, superarnos en todas las facetas del conocimiento.
Ray Kurzweil, quien trabajó como director de ingeniería de Google, considera que, cuando se desarrolle este tipo de tecnología, los algoritmos se mejorarán a sí mismos de manera exponencial hasta no solo superar nuestra inteligencia, sino hasta alcanzar un punto en el que los humanos ni siquiera podremos comprenderlos. Kurzweil incluso tiene fecha. Según él estas inteligencias artificiales generativas serán desarrolladas para el año 2045.
Si bien el concepto de inteligencia artificial general existe hace tiempo, quien lo usó de la manera en la que lo estamos utilizando actualmente fue Shane Legg, quien fue nada menos que uno de los fundadores de la empresa especializada en inteligencia artificial DeepMind, que más tarde Google compraría por US$ 400 millones.
Supertinteligencias artificiales: “Seremos como chicos jugando con una bomba”
Opiniones en relación a cómo esto podría afectar a la raza humana hay para tirar para arriba. De un lado, quienes aseguran que estas superinteligencias ayudarán a la humanidad a curar enfermedades o resolver tareas peligrosas para nosotros. Del otro, quienes explican que esto podría significar nuestro fin.
Nick Bostrom es un filósofo sueco de la Universidad de Oxford muy famoso por haber publicado un libro llamado “Superinteligencia: caminos, peligros, estrategias”. En él, justamente, habla de cómo una inteligencia artificial general podría “escapar de nuestro control”.
Bostrom explica que, de poder desarrollar esta tecnología, probablemente superará no solo ampliamente sino rápidamente las capacidades humanas: “Ante la perspectiva de una explosión de inteligencia, seremos como chicos jugando con una bomba. Tenemos poca idea de cuándo detonará, aunque si acercamos el dispositivo a nuestros oídos podemos escuchar un leve tic tac”.
Eliezer Yudkowsky es otro de los grandes investigadores ligados al campo que no son demasiado optimistas. Yudkowsky, fundador del Machine Intelligence Research Institute y cuyos estudios influenciaron fuertemente la publicación del libro de Bostrom, publicó una editorial en la revista TIME donde escribió una frase demoledora: “Si alguien crea una inteligencia artificial demasiado poderosa bajo las condiciones actuales, yo espero que cada uno de los miembros de la raza humana y toda la vida biológica en la Tierra muera tiempo después”.
Elon Musk, CEO de Tesla, SpaceX, Neuralink y quien compró Twitter por u$s 44.000 millones, también es quienes ve el desarrollo de este tipo de tecnologías como potencialmente amenazante para la humanidad. “La inteligencia artificial tiene el potencial de destruir la civilización”, alertó y agregó que “cualquiera que piense que ese riesgo es de 0% es un idiota”. Siempre fiel a su estilo.
Los que están a favor de la a favor de la IA generativa
Afortunadamente, también tenemos una visión positiva de este tipo de tecnologías. Yann LeCun, ganador del Premio Turing por el trabajo que hizo vinculado al reconocimiento óptico de caracteres y visión por computadora utilizando redes neuronales, asegura que pensar en una super inteligencia artificial acabando con la raza humana es simplemente “ridículo”.
La vicepresidenta de investigación en IA de Meta, Joelle Pineau, es crítica y considera que el debate actual se volvió “irracional”. Lo que ella explica es que cuando alguien analiza los riesgos de un desarrollo lo que hace es tener en mente la probabilidad de cada escenario negativo y lo relaciona con su potencial costo.
Leé también: La inteligencia artificial resuelve misterios de 5.000 años al descifrar textos en tablillas ancestrales
El problema, según Pineau, es que quienes advierten sobre la amenaza “existencial” de una inteligencia artificial general le están asignando un costo infinito a ese resultado (la extinción de la raza). El problema es que cualquier probabilidad, por más pequeña que sea, multiplicada por un costo infinito da como resultado un riesgo infinito. Para Pineau, esto impide tener discusiones profundas y sensatas sobre los riesgos que puedan existir.
La polémica Q* de Open AI
¿Y por qué se volvió a hablar de los potenciales riesgos de la creación de una superinteligencia artificial? Por los rumores que apuntan a que dentro de OpenAI habrían logrado un avance notable en lo que es la búsqueda por lograr desarrollar una inteligencia artificial generativa.
Durante una de las pruebas del proyecto, llamado Q* y pronunciado Q Star, los investigadores de la empresa habrían visto cómo una inteligencia artificial, por primera vez en la historia, resolvió un problema matemático como una persona y no como una computadora.
Si bien no podría, al menos por ahora, resolver más problemas que un estudiante de primaria, este sería un avance único para dar con esta tecnología que, de ser realmente una inteligencia artificial general, podría superar a la inteligencia humana y, al menos para algunos expertos, exterminarla. Esperemos que se equivoquen.