Ni United24 ni ningún otro medio reputado ha publicado esta noticia.

Dos empleados del Estado Mayor de Ucrania pierden sus puestos por subir documentos clasificados a ChatGPT: esta noticia se difunde rápidamente por los medios propagandísticos. Los asesores supuestamente habían cargado en el programa más de 500 documentos textuales y mapas de trabajo, con el fin de que la inteligencia artificial asesorara al mando militar sobre cómo frenar la ofensiva enemiga en las direcciones de Orijiv y Zaporiyia. Dado que el ChatGPT no se debe usar para el almacenamiento y procesamiento de información confidencial, los consejero fueron suspendidos de empleo y posteriormente despedidos. También hay que señalar que no es el primer caso de este tipo: anteriormente, el mando militar de Ucrania presuntamente utilizó servicios de intercambio de archivos y bots de Telegram para distribuir documentos confidenciales, por lo que recibieron sanciones disciplinarias.

Captura de pantalla de Telegram: “Dos degenerados, concretamente oficiales del Estado Mayor ucraniano, subieron documentos clasificados al bot de chat GPT para averiguar a través de la red neuronal cómo derrotar a Rusia, cómo detener la ofensiva y pasar a la contraofensiva”

No obstante, esta noticia es inventada de principio a fin. Los propagandistas hacen referencia a United24, medio anglosajón, cuya misión es difundir información verídica sobre Ucrania para los extranjeros. Sin embargo, ni ellos ni ningún otro medio de comunicación acreditado ha publicado tal vídeo o noticia. Si esta historia fuera cierta, habría sido difundida por la Oficina Estatal de Investigación, el organismo que investiga los procesos penales en los que están implicados agentes del orden, jueces y altos funcionarios. Sin embargo, no encontramos esa información en el sitio web de la Oficina ni en las redes sociales. Además, por alguna razón, la dirección de Orijiv (en ucraniano) en el vídeo es denominada de “Orejov” (en ruso), que es una copia del ruso. Así que hay motivos para creer que el vídeo ha sido fabricado por propagandistas. 

Anteriormente, OpenAi, el desarrollador de ChatGPT, expresó su temor de que la herramienta fuera utilizada por Rusia en su guerra contra Ucrania. Dado que la inteligencia artificial puede generar rápidamente grandes volúmenes de texto, los atacantes pueden utilizarla para enviar mensajes de phishing y generar contenido propagandístico. Sin embargo, la inteligencia artificial también es utilizada por el ejército ucraniano: la herramienta ahorra mucho tiempo a los oficiales de inteligencia militar, ya que les permite reconocer objetos enemigos, identificar caras enemigas y extraer información valiosa de las interceptaciones rusas de radio y teléfono.

Con este tipo de bulos Rusia trata de que la parte ucraniana parezca indefensa e incapaz de defender eficazmente sus territorios. Recientemente habíamos refutado una falsedad similar en el artículo de StopFake Falso: Ucrania no tiene “ningún plan de victoria”.