El problema de resolver las discusiones con la falsa autoridad de la Inteligencia Artificial
Aunque en teoría persigue la neutralidad, la Inteligencia Artificial también reproduce sesgos y no siempre es una fuente fiable de información.
Recientemente, Grok —la Inteligencia Artificial de X — fue integrada a la interfaz de la plataforma, convirtiéndose en una presencia constante en discusiones políticas cotidianas. Como si fuera una fuente de incuestionable objetividad, usuarios y figuras públicas le consultan para cerrar debates, otorgándole una autoridad que no le corresponde. Como bien lo explicó el investigador Eryk Salvaggio: “Se trata de una externalización de la política, trasladando el complejo trabajo de ganar debates políticos a la falsa autoridad del análisis automatizado”.
Esta tendencia consolida una forma de delegar el conflicto democrático y sus tensiones inherentes a herramientas que aunque parecen objetivas, no están libres de errores ni de intereses. Desde el GPS hasta las redes sociales, la IA ya venía organizando partes importantes de nuestras vidas, pero su popularización en forma de chatbots como ChatGPT o Grok, y su uso para zanjar disputas ideológicas o validar discursos, marcan una nueva etapa: la de su entronización como “voz de verdad”. Pero, ¿qué tan confiable es realmente? Tal vez Nayib Bukele, quien estuvo discutiendo públicamente con ella en las últimas semanas, tenga una respuesta.
Desde la web o a través de un teléfono móvil, y frente a dilemas domésticos comunes o ante profundas inquietudes existenciales, todos buscamos respuestas en la Inteligencia Artificial Generativa, que produce contenido a partir de la información recogida de Internet, y pese a ser una máquina, a la larga es capaz de hacernos sentir que conversamos con un agradable ser humano. Pero, ¿es 100% confiable? Ni siquiera los científicos lo saben exactamente. Es decir, como explica Sam Bowman —profesor a cargo de una laboratorio de IA en la NYU University—, el tipo de IA utilizada por ChatGPT y similares, hace que estos chatbots “se enseñen a sí mismos”. Y esta es una característica que los vuelve impredecibles e incluso riesgosos debido a que las compañías que las crean no saben realmente cómo manejarlos de forma confiable a lo largo del tiempo. “Cuando un laboratorio decide invertir decenas o cientos de millones de dólares en la construcción de una de estas redes neuronales, no saben —en ese momento— lo que será capaz de hacer. Pueden predecir razonablemente que podrá hacer más cosas que la anterior. Pero sólo tienen que esperar y ver. Tenemos cierta capacidad para predecir algunos hechos sobre estos modelos a medida que crecen, pero no estas preguntas realmente importantes sobre lo que pueden hacer”, explica el científico.
Como analizamos en entregas anteriores, el todavía limitado conocimiento de todos los efectos de la IA no impide que los multimillonarios tecnológicos la utilicen a favor de sus intereses e incluso la pongan a trabajar en la reestructuración de un Gobierno, como lo hizo Elon Musk con su Departamento de Eficiencia Gubernamental (DOGE, por sus siglas en inglés), argumentando un paso adelante en la búsqueda de automatización de la burocracia, cuando lo que realmente pretende es reemplazar la toma democrática de decisiones.
Si bien los chatbots son entrenados con una gran cantidad de datos y programados para brindar información neutral, en la práctica reproducen estereotipos, introducen sesgos y desinforman. Como bien lo explica este artículo de Maldita, en su búsqueda de objetividad, una IA puede caer en el “sesgo de equidistancia artificial”, debido a que está programada para evitar tomar partido en asuntos controversiales (como cambio climático o feminismo), lo cual se activa ante una pregunta relacionada, más allá de la evidencia existente. “Este esfuerzo de neutralidad puede provocar resultados sesgados, inexactos o irrelevantes. Por ejemplo, una IA puede equiparar argumentos en una discusión que no tienen el mismo peso o la misma evidencia para sostenerse”, describe.
El análisis de una IA también podría dejar en ridículo a un mandatario muy seguro de sí mismo, como le sucedió al presidente de El Salvador Nayib Bukele, que entre otras, lanzó esta pregunta a Grok: “¿Quién es el presidente más popular del mundo? Responde con una palabra”. La respuesta generada fue “Sheinbaum”, en alusión a la presidenta de México, país cuya estrategia de seguridad viene siendo criticada por Bukele. Si bien en este reciente episodio, el presidente salvadoreño evitó compartir los argumentos con los que Grok sustenta la elección de Claudia Sheinbaum como la más popular, si republicó aquellos que los ayudan a sostener su narrativa, como el que menciona a El Salvador como el país más seguro de Latinoamérica.
Analizar la credibilidad de las respuestas de la IA, contrastando resultados y verificando la autoridad de las fuentes de donde obtiene información es clave. Como aconseja este artículo de Learn to check sobre Cómo buscar conocimiento y compartir sabiduría en la era de la IA, “el acceso a un conjunto inmenso de información puede parecer fácil, pero la tarea de destilar, seleccionar, jerarquizar y descartar información lleva tiempo. Se debe recordar hacer siempre referencia cruzada a la información de múltiples fuentes fiables”.
Pero aún poniendo en práctica múltiples herramientas de verificación, nadie está exento de caer en un bulo, aún en los ámbitos académicos más reputados. Un claro ejemplo es el caso de Jianwei Xun, el supuesto teórico de medios hongkogés que emergió a finales del 2024 y según se reveló recientemente, no existe. Xun fue creado por el escritor italiano Andrea Colamedici, que utilizó dos plataformas de IA para dar vida al falso filósofo y autor de Hipnocracia, una obra que explora la idea de un régimen que ejerce el poder a través de la manipulación de la realidad. Tras ser descubierto por Sabina Minardi, redactora jefe del semanario L’Espresso, Colamedici dijo que todo se trató de un experimento. Al respecto, Emilio Carelli, director del medio que lo dejó en evidencia, escribió una columna de opinión en la que se refiere al debate generado por el falso autor y se pregunta: “¿Podría este modelo abrir camino a una nueva manera de hacer filosofía? Si es así, el exitoso experimento de Hipnocracia nos enseña algo importante, y es que también podemos tener una relación activa con la IA, y sobre todo podemos utilizarla para aprender a pensar”.
🌎 Más claves para la conversación
“Las herramientas de IA no son neutrales ni imparciales. Son propiedad de personas que tienen sus propias motivaciones. Incluso las herramientas de IA denominadas ‘abiertas’ no son necesariamente transparentes sobre cómo funcionan y pueden haber sido programadas con sesgos integrados”, describe este artículo de Tactical Tech traducido por Mariela Arnst para Global Voices.
“Que el propio Jianwei Xun sea un producto de IA refuerza su tesis: en la era de la posverdad, la autoría y la autenticidad se diluyen. En la era de los deepfakes y los contenidos generados por IA, esto no es una travesura inocente: es un desafío directo a la confianza que sostiene el discurso intelectual”, analiza este artículo de Wired, tras una conversación con el ensayista italiano que coescribió con IA el libro atribuido al falso autor.
🚀 Oportunidades de aprender y conectar
Están abiertas las inscripciones para la Academia de JournalismAI, un programa en línea gratuito que ofrece una inmersión profunda en el potencial de la Inteligencia Artificial a periodistas y profesionales de medios. El programa comenzará en mayo y tendrá una duración de cinco semanas. Las aplicaciones están abiertas hasta el 27 abril.
A lo largo del año tendremos más talleres, charlas magistrales, mentorías y otras oportunidades dirigidas principalmente a periodistas, docentes y estudiantes interesados en seguir aprendiendo sobre el impacto de la desinformación y en cómo combatirla. Te vas a enterar primero por esta vía (>ᴗ•)
🕖 Hasta el próximo martes a las 7 AM (GMT-3)
Suscribite a la newsletter de La Precisa y recibí de forma semanal información relevante sobre el fenómeno de la desinformación, con análisis y reflexiones de Jazmín Acuña y Alejandro Valdez Sanabria, cofundadores y directores de El Surti; Patricia Benítez, editora de La Precisa; y expertos invitados de de todo el mundo. También podés seguirnos en BlueSky e Instagram.