Grok está difundiendo información errónea sobre el tiroteo en Bondi Beach

Grok, el chatbot de inteligencia artificial de Elon Musk, vuelve a tener fallas.

Esta vez, entre otras cosas, el chatbot arroja información incorrecta sobre el tiroteo en Bondi Beach, que dejó al menos once personas muertas en una reunión de Hanukkah.

Finalmente, uno de los atacantes fue desarmado por un transeúnte, identificado como Ahmed al Ahmed, de 43 años. El vídeo de la interacción se ha vuelto viral en las redes sociales y muchos elogian el heroísmo del hombre. Excepto aquellos que han aprovechado la oportunidad para sacar provecho de la tragedia y difundir la islamofobia, especialmente negando la validez de los informes que identifican a sus allegados.

Gro no ayuda a mejorar la situación. El chatbot parece tener fallas, al menos desde el domingo por la mañana, sin respuestas o, a veces, completamente incorrectas a las preguntas de los usuarios.

En respuesta a la historia de un usuario detrás del vídeo que muestra a Grok enfrentándose al tirador Al Ahmed, AI dijo: «Parece ser un viejo vídeo viral de un hombre trepando a una palmera en un estacionamiento, posiblemente para cortarla, provocando la caída de una rama y dañando un automóvil estacionado. Las búsquedas de fuentes no han arrojado ninguna ubicación, fecha o incertidumbre comprobadas».

En otro caso, Grok dijo que una fotografía que mostraba a Al Ahmed herido era de un rehén israelí tomado por Hamás el 7 de octubre.

En respuesta a la pregunta de otro usuario, Grok volvió a cuestionar la autenticidad del enfrentamiento de al Ahmed, después de un párrafo irrelevante sobre si el ejército israelí apuntó a civiles de Gaza.

En otro caso, Grok tuiteó que un vídeo claramente marcado para mostrar un tiroteo entre atacantes y la policía en Sydney era del ciclón tropical Alfred, que devastó Australia a principios de este año. Aunque en este caso, el usuario duplicó la respuesta para pedirle a Grok que reevaluara, lo que hizo que el chatbot se diera cuenta de su error.

Más allá de identificar erróneamente la información, Grok parece genuinamente confundido. A un usuario se le dio un resumen del tiroteo en Bondi y sus consecuencias en respuesta a una pregunta sobre la empresa de tecnología Oracle. También parece haber información contradictoria sobre el tiroteo en Bondi y el tiroteo en la Universidad de Brown que ocurrió pocas horas antes del ataque en Australia.

El virus también se está extendiendo más allá del tiroteo en Bondi. En el transcurso del domingo por la mañana, Grok identificó erróneamente a jugadores de fútbol famosos, dio información sobre el uso de acetaminofén durante el embarazo cuando se le preguntó sobre la píldora abortiva mifepristona, o habló sobre el Proyecto 2025 y las posibilidades de que Kamala Harris se postule nuevamente para la presidencia cuando se le pidió que verificara una afirmación completamente separada sobre una iniciativa policial británica.

No está claro qué está causando el error. Gizmodo contactó al desarrollador de Grok, xAI, para hacer comentarios, pero solo respondieron con la habitual respuesta automática: «Legacy Media Lies».

Tampoco es la primera vez que Gro pierde el control de la realidad. El chatbot ha dado algunas respuestas cuestionables este año, desde un «cambio no autorizado» que respondió con teorías de conspiración sobre el «genocidio blanco» en Sudáfrica, hasta decir que preferiría evaporar la mente de Musk que matar a la población judía del mundo.