Un nuevo estudio revela el principal riesgo de ChatGPT: la insuficiente supervisión humana
Desde su irrupción en el panorama tecnológico, ChatGPT y otros modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) han capturado la imaginación colectiva, generando un torbellino de discusiones sobre su potencial transformador y los peligros inherentes. Las conversaciones iniciales se centraron, comprensiblemente, en escenarios distópicos de pérdida masiva de empleos, el riesgo de que la inteligencia artificial (IA) supere a la inteligencia humana o la proliferación descontrolada de desinformación y sesgos. Sin embargo, un reciente estudio arroja luz sobre una amenaza mucho más insidiosa y, paradójicamente, más ligada a nuestra propia responsabilidad: la alarmante falta de una supervisión humana robusta y consciente. Lejos de las narrativas apocalípticas, el verdadero talón de Aquiles de la IA moderna podría residir en nuestra propia negligencia y en la delegación ciega de tareas críticas a sistemas que, por muy avanzados que sean, carecen de juicio ético, empatía y comprensión contextual.