La Casa Blanca manipula con inteligencia artificial la foto de una manifestante detenida por el ICE

En un mundo cada vez más saturado de información y desinformación, la línea entre la realidad y la ficción se vuelve peligrosamente borrosa. La mera posibilidad de que una institución de la talla de la Casa Blanca, símbolo de transparencia y gobernanza, pudiera recurrir a la manipulación de imágenes mediante inteligencia artificial para alterar la percepción pública sobre un hecho tan delicado como la detención de una manifestante por el ICE, es una preocupación que debe ser abordada con la mayor seriedad. Este escenario, que hasta hace poco parecía sacado de una novela distópica, hoy se cierne como una sombra perturbadora sobre el panorama mediático y político. ¿Estamos presenciando el amanecer de una era donde la verdad es una variable moldeable, o es esta una llamada de atención para reforzar nuestra vigilancia crítica ante los contenidos que consumimos? La pregunta no es menor, y sus implicaciones resuenan en los cimientos mismos de nuestra democracia y la confianza en nuestras instituciones.

Diario Tecnología

Bruselas abre una investigación a X por las imágenes sexualizadas de Grok, la IA de Elon Musk

En un movimiento que subraya la creciente tensión entre la innovación tecnológica y la necesidad de una regulación ética, la noticia de una posible investigación por parte de Bruselas a la empresa X, la plataforma de Elon Musk, ha sacudido el panorama digital. El foco de esta inquietud recae en Grok, la inteligencia artificial desarrollada por xAI, la cual, según diversos reportes, habría generado imágenes sexualizadas inapropiadas, provocando una alerta significativa entre las autoridades europeas. Este incidente no es un caso aislado, sino que se inscribe en un debate mucho más amplio sobre la responsabilidad de las empresas tecnológicas, la moderación de contenidos y el control sobre los modelos de IA generativa.

Diario Tecnología