Una empresa de energía solar ha demandado a Google por la IA de su buscador: se inventó que eran unos estafadores

Publicado el 21/06/2025 por Diario Tecnología
Artículo original

Una empresa de energía solar ha demandado a Google por la IA de su buscador: se inventó que eran unos estafadores

El buscador de Google ya no es solo un buscador. Desde que Google empezó a integrar la función "AI Overviews" es también un chatbot con inteligencia artificial que contesta a las preguntas de los usuarios sin que tengan que hacer clic en ningún enlace. El problema es que la tecnología subyacente, los grandes modelos de lenguaje, funcionan de manera probabilística, por lo que tienden a inventarse la respuesta cuando no tienen muy claro cómo contestar.

Una mentira creíble. Esta vez, una respuesta inventada de AI Overviews puede acabar sentando a Google en el banquillo. La demandante es Wolf River Electric, una empresa de energía solar de Minnesota. Y el origen del pleito es, valga la redundancia, una demanda que nunca existió.

Según los abogados de la empresa energética, la búsqueda de los términos "demanda contra Wolf River Electric" en Google hizo que la IA respondiera con difamaciones. Citan un caso en el que AI Overviews contestó que Wolf River Electric había sido demandada por el fiscal general de Minnesota por "prácticas de venta engañosas", como mentir a los clientes sobre cuánto se van a ahorrar y engañar a los propietarios para que firmen contratos con tarifas ocultas.

La IA presentó el caso con total confianza implicando a cuatro de los directivos de la empresa por su nombre: Justin Nielsen, Vladimir Marchenko, Luka Bozek y Jonathan Latcham, llegando a mostrar una foto de Nielsen junto a las acusaciones falsas. Para respaldar sus afirmaciones, la IA citó cuatro enlaces: tres artículos de noticias y un comunicado del fiscal general. Sin embargo, ninguno de los enlaces mencionaba una demanda contra Wolf River Electric.

No es la primera vez. Este tipo de error se conoce como "alucinación", y es muy común en los modelos de lenguaje por cómo van tejiendo su respuesta mediante la predicción de las siguientes palabras, a veces arrastrando el error inicial hasta convertirlo en una mentira creíble con todo tipo de ramificaciones inventadas, como en el juego del teléfono escacharrado.

Cuando Google empezó a integrar AI Overview en el buscador, tuvo que retirarlo de algunas búsquedas, en especial de recetas y nutrición, porque llegó a recomendar añadir pegamento a la pizza o comer una piedra al día para mantenerse saludable.

Una respuesta por pregunta. Wolf River Electric afirma que, debido a lo que leyeron en los AI Overviews, varios clientes cancelaron sus contratos, valorados en hasta 150.000 dólares. El problema es que las respuestas de AI Overviews son personalizadas: se infieren en el momento, por lo que puede variar de una consulta a otra

Eso a los abogados de Wolf River Electric no les preocupa porque saben que puede volver a ocurrir. "Esta demanda no va solo de defender la reputación de nuestra empresa; va de defender la equidad, la verdad y la responsabilidad en la era de la inteligencia artificial", dice Nicholas Kasprowicz, asesor jurídico de la empresa.

David contra Goliat. El caso fue presentado en marzo en un tribunal estatal y acaba de ser elevado a un tribunal federal de Estados Unidos. Tal vez acabe creando jurisprudencia sobre si una empresa tecnológica debe responsabilizarse de que su IA genere y difunda desinformación. La respuesta a esta pregunta podría marcar un punto de inflexión para las empresas de IA, que durante mucho tiempo han intentado eludir la responsabilidad por los resultados de sus modelos de lenguaje.

Google, en su defensa, calificó el incidente como un percance inofensivo. "La gran mayoría de nuestras AI Overviews son precisas y útiles, pero como con cualquier nueva tecnología, pueden ocurrir errores", explicó un portavoz de la compañía. Google dice haber actuado rápidamente para solucionar el problema tan pronto como tuvieron conocimiento de él, en línea con sus recientes esfuerzos por permitir que los usuarios corrijan los errores de la IA.

Imagen | Google

En Xataka | La IA de Google aconseja usar pegamento para el queso de la pizza. La fuente es un comentario de Reddit de hace 11 años

utm_campaign=21_Jun_2025"> Matías S. Zavia .