Los agentes de IA son prometedores. Pero como en el FSD de Tesla, mejor no quitar las manos del volante

Publicado el 17/03/2025 por Diario Tecnología
Artículo original

Los agentes de IA son prometedores. Pero como en el FSD de Tesla, mejor no quitar las manos del volante

Los agentes de IA son una de las grandes tendencias de la IA este año. Hay muchas expectativas puestas en estos modelos de IA capaces de completar una tarea de principio a fin por nosotros y casi si nuestra intervención. Y sin embargo, una cosa parece clara: de momento será mejor "no quitar las manos del volante" y vigilar cada paso que dan para evitar que el agente de IA se acabe estrellando.

Autonomía y confianza. El sistema de asistencia a la conducción de Tesla —mal llamado Conducción Autónoma Total (FSD por sus siglas en inglés)— requiere que el usuario confíe en él para dejarse llevar y que el coche nos lleve desde un punto de origen a uno de destino sin intervención humana. Los agentes de IA proponen una idea similar, la de completar una tarea de principio a fin de forma autónoma, pero para ello debemos fiarnos de que son capaces de hacerlo.

Toma de decisiones. Los agentes requerirán ingentes cantidades de datos y acceso a fuentes de información actualizadas para poder analizar dichos datos y luego tomar decisiones. En el pasado hemos visto cómo los modelos de IA son especialmente buenos a la hora de resumir información concreta o poder sacar conclusiones a partir de datos acotados, lo que es muy útil de cara a esa toma de decisiones.

Aprender de los errores. Los coches de Tesla reciben actualizaciones frecuentes de FSD para mejorar su comportamiento. Dichas actualizaciones se nutren de los datos que recolecta la compañía cuando se usa su sistema FSD, loque permite pulir el servicio. Se espera que ocurra algo similar con los agentes de IA, que mejorarán —especialmente al principio— al ir actualizándose y "aprender de sus errores" al procesar peticiones de los usuarios.

Agentes de IA y empresas. Este tipo de soluciones serán especialmente llamativas en empresas que podrán así automatizar procesos que antes requerían intervención humana total o parcial. Y precisamente por eso ese tipo de integración deberá hacerse de forma muy controlada, porque admitámoslo: no nos podemos fiar al 100% de los modelos de IA actuales.

Tesla sabe que FSD es imperfecto. Ocurre desde luego en el FSD de Tesla, que desde sus inicios ha estado involucrado en diversos accidentes, algunos de ellos con víctimas mortales. Uno de los más recientes se notificó en octubre de 2024: la baja visibilidad hizo hace unos meses que un Tesla con FSD activado atropellara a un peatón. Se ha criticado a Tesla en numerosas ocasiones de publicidad engañosa y de ahorrar al máximo en radares y sensores para lograr mayor margen de beneficio. Los agentes de IA pueden resultar igualmente peligrosos si se utilizan de forma incorrecta y "sin tener las manos en el volante". Los usuarios y empresas que comienzan a usarlos deben tener muy presentes esos riesgos.

Las manos al volante, por favor. La conclusión ya era clara en el sistema FSD de los Tesla, pero también en el caso de los agentes. Apenas no han hecho más que aparecer en el mercado de forma tímida, pero todo apunta a que esta es una de las grandes tendencias de la IA para 2025. Y el problema es que los modelos de IA son imperfectos y por lo tanto pueden cometer errores, pero es que en los agentes de IA ese error va aumentando. Que se lo digan a Air Canada, que tuvo que devolverle el dinero a un pasajero que obtuvo una respuesta errónea del chatbot de la aerolínea. O a Chevrolet, cuyo chatbot fue "engañado" por un usuario que logró comprar uno de sus coches por un dólar.

Efecto dominó. La acumulación de errores en tareas secuenciales es un problema fundamental en los modelos de IA actuales. Podríamos decir que es algo así como el efecto dominó o el error compuesto: un error en una acción inicial distorsiona todas las decisiones posteriores, generando resultados cada vez más alejados de lo esperado. Imaginad eso en aplicaciones como las finanzas, la medicina o la logística: las consecuencias podrían ser terribles.

Solución: supervisión constante. Para evitar ese problema hay varias soluciones propuestas. Una de ellas es el establecimiento de puntos de comprobación. Así, al final de cada subtarea el sistema —e idealmente, un usuario humano, lo que se llama Human-in-the-Loop (HITL)— debería comprobar qeu todo va bien. También es posible minimizar el riesgo usando sistemas redundantes —por ejemplo, usando distintos modelos de IA para que el agente de IA los utilice por separado— o aprovechando la información de los límites estándar: si un dato intermedio arrojado por un agente de IA se desvía demasiado de lo esperable, deberíamos recomprobar ese proceso.

Y de momento, escenarios (muy) acotados. Estamos en una fase preliminar, y los agentes de IA están "aprendiendo a conducir solos", por decirlo de algún modo. Y la mejor forma de que aprendan es ir paso a paso y comenzando siempre con escenarios relativamente sencillos y muy acotados. Así, lo ideal es intentar aplicarlos a casos muy concretos y con una casuística limitada y conocida, de forma que sus respuestas sean lo más precisas que se pueda.

Imagen | Erik Witsoe

En Xataka | Microsoft está empeñadísima en que los agentes de IA sean el gran pelotazo del año. Y se está reorganizando para lograrlo

utm_campaign=17_Mar_2025"> Javier Pastor .