Frente a una IA que dice sí a todo, una preocupación: así jamás lograremos crear un Einstein o un Newton
Publicado el 12/03/2025 por Diario Tecnología Artículo original
Ya casi estamos tocando la AGI con los dedos, por lo visto. No lo decimos nosotros, llevan tiempo diciéndolo verdaderas personalidades del mundo tecnológico. Veamos:
- Sam Altman cree que llegará en unos pocos miles de días, pero claro, necesita crear hype para recaudar más y más fondos.
- El eslógan de xAI, la startup de Elon Musk —conocido por sus promesas incumplidas—, indica que con su IA podremos "comprender el universo".
- Jensen Huang, CEO de NVIDIA, cree también que crearemos una AGI en cinco años (y mientras, se hinchará a vender GPUs).
- Y Demis Hassabis, CEO de DeepMind, parece coincidir, aunque hay que admitir que Google parece ser algo más cauta con esas afirmaciones.
Pero es que todo eso son promesas. Expectativas. Humo. El optimismo desaforado de esta industria ha provocado una fiebre del oro colosal en la que las inversiones apuestas en nuevas startups y sobre todo en centros de datos —hola, Stargate— son absolutamente espectaculares y más propias de una burbuja. ¿Puede que se cumplan esas expectativas? Claro. Pero nada asegura 1) cuándo podremos llegar a tener una AGI y sobre todo 2) que de hecho lleguemos a tenerla.
Y ese es un problema importante, porque las expectativas sobre la IA se han disparado, y eso es peligroso. ¿Es un avance prometedor? Sin duda. ¿Está cambiando nuestro mundo? De momento, más bien poco.
Hay que tener muy en cuenta que otras revoluciones tecnológicas pasadas también llevaron tiempo y generaron desconfianza y escepticismo en sus inicios. Tenemos de hecho célebres casos de verdaderos zascas en toda la boca en el ámbito tecnológico:
- Thomas Watson, presidente de IBM, dijo en 1943 "creo que existe un mercado mundial para unas cinco computadoras".
- Bill Gates dijo supuestamente —aunque luego lo desmintió— que "640K [de memoria] deberían ser suficientes para cualquiera"—.
- Su gran amigo Steve Ballmer —que tiene más dinero aún que él, que ya es decir— se rio del iPhone cuando se lanzó.
- Robert Metcalfe, coinventor del estándar Ethernet, dijo en 1995 "predigo que pronto se convertirá en una supernova y colapsará de forma catastrófica en 1996". Luego reconoció su error y literalmente se comió sus palabras.
Son muchas e importantes meteduras de pata de gente que teóricamente sabía mucho de lo que hablaba. Y todos ellos demuestran una cosa: predecir el futuro no solo es imposible, sino peligroso. Y eso nos hace tener claro que quizás haya que darle una (gran) oportunidad a la IA, sin duda.
Así nunca vamos a tener a una IA que iguale Einstein o a Newton
Pero hoy por hoy quizás estemos esperando demasiado de ella. Es justo lo que planteaba en un breve pero brillante ensayo en X Thomas Wolf, cofundador y Chief Science Officer de Huggin Face. Según él lo que nos prometieron —o de lo que se sigue hablando— es muy disinto a lo que realmente tenemos.
Y lo que se nos prometió y se nos dice es que la IA revolucionará el mundo de la ciencia. Que tendremos nuevos medicamentos, nuevos materiales, nuevos descubrimientos. Y la realidad es que aunque hay algunas noticias realmente prometedoras, no hay de momento revoluciones.
Para Wolf lo que tenemos es "un país de hombres que dicen sí a todo en servidores", es decir, que la IA, aunque es asertiva y expresa su opinión de manera firme y con seguridad, no suele desafiar a los usuarios. Y lo más importante: tampoco desafía lo que sabe.
Como explicaba él, mucha gente cae en el error de pensar que gente como Newton o Einstein eran estudiantes excelentes, y que la genialidad llega cuando logras extrapolar a esos estudiantes geniales. Como si lograr que la IA tenga la capacidad del mejor estudiante del mundo fuera suficiente. Y no lo es:
"Para crear a un Einstein en un centro de datos no necesitamos un sistema que tenga todas las respuestas, sino más bien uno que sea capaz de preguntarse cosas que nadie había pensado o nadie se había atrevido a preguntar".
Es un mensaje potente y probablemente cierto. Mientras que Sam Altman aseguró que la superinteligencia podría acelerar el descubrimiento científico y Dario Amodei —CEO de Anthropic— aseguró que la IA nos ayudará a formular curas para la mayor parte de tipos de cáncer, la realidad es otra.
Y la realidad según Wolf es que la IA no genera nuevo conocimiento al"al conectar hechos previamente no relacionados. [...] Simplemente llena los huecos de lo que los humanos ya sabían". Aquí quizás la afirmación sea algo negativa, porque la IA sí logra generar nuevo conocimiento y nuevos contenidos conectando precisamente esos datos con los que es entrenada. Lo vimos hace poco en el ámbito de la microbiología, por ejemplo, y también en todas esas obras de texto, imagen y vídeo que hacen plantearnos qué es la creatividad y si las máquinas pueden llegar a ser creativas.
Wolf no está solo en ese discurso. El exingeniero de Google François Chollet, ahora al frente del benchmark ARC Prize, coincide. Según él la IA es capaz de memorizar patrones de razonamiento —que son los que se usan en los modelos de razonamiento, como o1 o DeepSeek R1—, pero no es probable que pueda razonar por sí sola y adaptarse a nuevas situaciones.
Así pues, según Wolf la IA actual es como un estudiante fantástico y muy aplicado, pero uno que no desafía lo que se le ha enseñado. No tiene incentivos para cuestionar lo que sabe y proponer ideas que van contra los datos con los que ha sido entrenado. Se limita a contestar preguntas ya formuladas. Este experto afirma que necesitamos una IA que se pregunte a sí misma "¿Qué pasa si todo el mundo está en un error con esto?" aunque todo lo que se ha publicado sobre cierto tema sugiera lo contrario.
La solución que propone es salir de los benchmarks actuales. Él habla de una "crisis de la evaluación" que hace que las pruebas se centren en preguntas que tienen respuestas claras, obvias y cerradas. En lugar de eso se debería valorar especialmente que la IA sea capaz de enfoques audaces y van en contra de los hechos". Que pueda plantear "preguntas no obvias" que la dirijan a optar por "nuevas vías de investigación".
"No necesitamos un estudiante de matrícula de honor ni uno que pueda contestar cualquier pregunta gracias a sus conocimientos generales. Necesitamos a un estudiante de notable que detecte y cuestione todo aquello que el resto de la gente pasó por alto".
Y puede que tenga razón, desde luego. Es algo debatido con el problema del escalado —los modelos ya no son mucho mejores a pesar de que se han usado más recursos y datos que nunca—, y no parece que ese sea el camino para lograr una AGI.
Parece que las empresas se han dado cuenta y están buscando otros caminos. Los nuevos modelos de razonamiento parecen un camino más prometedor y de hecho logran buscar soluciones audaces. Lo vimos recientemente con esos modelos de IA que hacían trampas para ganar al ajedrez, por ejemplo. Ilya Sutskever, cofundador de OpenAI y ahora en busca de una AGI, también ha dejado claro que está siguiendo otro camino distinto al que llevó a desarrollar ChatGPT.
¿Logrará tener éxito allí donde otros están fracasando? Quién sabe. Tanto para él como para el resto, no obstante, la reflexión de Wolf es importante. Quizás lo que precisamente necesitamos es una IA que no nos diga que sí a todo, si no una que cuestione lo que sabemos.
O lo que creemos saber.
Imagen | Xataka con Freepik
utm_campaign=12_Mar_2025"> Javier Pastor .