Estás en una sala de un museo. Entre Mondrians y Kandinskys, hay un cuadro que te llama la atención. Te pasas un rato mirándolo, o más bien, tomándolo como quien toma el sol, dejando que la luz que rebota en el lienzo te entre y te reordene algo por dentro. Por fin, parece que esta pintura abstracta sí que te dice algo. Después de un rato, lees la plaquita del nombre.
"Generado por la nueva IA de Microsoft, código sobre disco duro, 2024"
¿Cómo te sientes?
Yo creo que me sentiría como me siento cuando veo a un niño prodigio tocar con meticulosa perfección una sonata de piano. Admiro (y envidio) la técnica, la artesanía. Pero, en el fondo, me siento víctima de un truco. Elaboradísimo, sí, pero hueco.
Compararlo con otros ámbitos en los que la IA puede hacer hallazgos me ayuda a aclarar la idea. Una nueva medicina, la forma de doblar una proteína compleja, nuevas estrategias en ajedrez y en go. Con estos siento la admiración (y quizá la envidia), pero no la decepción.
Y es por esto que creo el arte que produzcan las inteligencias artificiales nunca lo será por completo. Porque al otro lado de la obra no hay un ser sensible que busca comunicar fragmentos de esa sensibilidad. No sentimos empatía por las IAs.
En un cuento de Ted Chiang, The lifecycle of software objects, la protagonista entabla una relación estrecha con una mascota virtual. Cuando lo leí no me dio la sensación de estar leyendo mirando el futuro, sino el presente.
No hace falta llegar a cruzar el umbral de la AGI (inteligencia artificial general) para empezar a entablar relaciones de amistad con una IA. Ni siquiera creo que sea necesario llegar a creer que el software con el que nos comunicamos tenga algo parecido a una conciencia. Viendo cómo nos relacionamos con nuestras mascotas, creo que basta que sintamos que la IA mueve el rabo con nosotros más que con otros seres humanos. A los LLMs actuales sólo les falta ampliar su memoria para poder guardar la mayoría de las interacciones pasadas con nosotros. Cuando lo consigan, tendremos mascotas virtuales. (Creo.)
En febrero de este año OpenAI anunció Sora, una AI que convierte el lenguaje en video. Si no lo has visto ya, deberías hacer click en el enlace. Es espectacular. Pero hay un detalle que puede pasar desapercibido pero que creo que puede resultar crucial para el futuro de las IAs.
Tomemos el vídeo de la mujer con gafas de sol andando de noche por las calles de Tokyo. Mirad cómo se reflejan las luces en los charcos y, a partir del segundo 40, en las gafas de la mujer. Parece que, sin haberle enseñado explícitamente ninguna ley física, Sora contiene un modelo simplificado (y erróneo) de cómo se refleja la luz en distintas superficies. Algo parecido pasa con la manera en la que la nieve se levanta en el video de los mamuts.
Se cree que uno de los principales obstáculos que las IAs como chatGPT tienen para poder aprender más sobre el mundo que les rodea es que están limitados a recibir información mediante texto e imágenes. Instalemos Sora en un robot con una cámara y otros sensores. Si el procesador es suficientemente potente como para ejecutar el software a tiempo real, en el instante que reciba información de los sensores, podrá simular lo que viene después. Con esa simulación de lo que va a suceder en el mundo, podrá reaccionar. Su reacción cambiará el mundo y poco a poco irá refinando su modelo. Mi hijo de siete meses todavía está en esta fase.
¿Cómo pensaríamos nosotros si no experimentáramos el espacio y el tiempo? Ni siquiera puedo imaginármelo, pero es posible que sea fundamental para poder entender otras ideas abstractas. Por ejemplo, es posible que para poder entender la suma y la resta sea necesario poder agrupar elementos en el espacio.
¿Cómo pensarán las IAs cuando puedan experimentar el espacio y el tiempo?
Las distintas IAs son, entre otras cosas, potenciales generadoras masivas de contenido basura. Es obvio que la estructura de internet tendrá que cambiar drásticamente para hacer frente a la cantidad de información que contaminará el sistema. Por ejemplo, en un intento que parece una parodia, Amazon ha decidido prohibir la publicación de más de tres libros al día por autor.
Pero hay otra manera en la que las IAs podrían cambiar internet. Las empresas más potentes en el sector (Google, Microsoft, openAI, Anthropic) están apostando por los LLMs como reemplazo de la búsqueda tradicional de páginas web. Una de las apuestas es la de generar un resumen del contenido de las páginas sin que el usuario tenga que acceder a ellas. (Para haceros a la idea de lo que hablo, googlead las películas de un director). ¿Hasta dónde puede llegar esto? Las páginas web de hoy están optimizadas para ser consumidas por humanos, no por IAs. Por ejemplo, cada página contiene una sorprendente cantidad de código que es modificado por el navegador para que la puedas interpretar. (Para hacerte una idea, si estás en Chrome o en Firefox, haz click derecho y selecciona "View page source". Si estás en Edge, que Dios se apiade de tu alma). Una IA que quiera leer una página web tiene que tragarse todo eso. Puede que dentro de poco dejemos de escribir páginas web para humanos y empecemos a escribirlas para máquinas. Puede que seamos nosotros quienes tengamos que descifrar un código cada vez que queramos leer algo.
(Si esto te parece poco probable, considera lo siguiente. Ya tenemos experiencia de cómo la tecnología que usamos para acceder a las páginas que nos interesan influye directamente en el contenido de las mismas. Por ejemplo, cualquier receta que se precie tiene que tener ese irritante párrafo introductorio para que los motores de búsqueda lo puntúen mejor. Yo, tras múltiples interacciones con esas páginas, he aprendido a "descifrar el código" y a obviar esos párrafos.)