Compartir:

Lo que aprendí en la segunda conferencia anual sobre IA y el futuro de las noticias del Instituto Reuters y la Universidad de Oxford

Hay conferencias a las que uno asiste para confirmar lo que ya sospecha. Y hay otras que nos obligan a reformular las preguntas. La segunda edición de “IA y el Futuro de las Noticias”, organizada por el Instituto Reuters para el Estudio del Periodismo y la Universidad de Oxford el 17 de marzo de 2026, fue de las segundas. 

Y no necesariamente porque revelara verdades absolutas (nadie las tiene), sino porque expuso con claridad meridiana las tensiones que atraviesan el oficio periodístico en su convivencia con la inteligencia artificial.

Más de tres mil personas se inscribieron desde distintos continentes. Los paneles reunieron a periodistas de investigación, verificadores de datos, académicos de política tecnológica y editores de medios como The Guardian, Reuters, Bloomberg, The Economist y Full Fact, entre otros. 

Lo que sigue no es un resumen académico, sino es una lectura profesional desde la comunicación estratégica, pensada para quienes trabajamos en la gestión de reputación, el análisis mediático y la consultoría de crisis en América Latina. Lo bueno se comparte.

La mistificación como estrategia corporativa

El primer panel dejó una lección incómoda para quienes cubrimos o asesoramos sobre tecnología: buena parte de la cobertura periodística de la IA ha servido más a las empresas tecnológicas que al público. Niamh McIntyre, del Bureau of Investigative Journalism, lo dijo sin rodeos: la jerga técnica y la “mistificación” que domina los reportajes no es un defecto accidental; es funcional a los intereses de quienes venden estos productos. Cuando la IA parece aterradora y complicada, la gente deja de hacer las preguntas básicas. Y eso, en comunicación estratégica, tiene un nombre: control narrativo.

Para quienes trabajamos en reputación mediática, esta observación es doblemente relevante. Si las audiencias no entienden cómo funciona la tecnología que usan las empresas que asesoramos, tampoco podrán evaluar los riesgos reputacionales que esa tecnología implica. La opacidad no protege; construye vulnerabilidad.

Akshat Rathi, de Bloomberg, añadió otra capa: las mismas corporaciones que se comprometieron a ser “neto cero” para 2030 ahora postergan esas metas para alimentar el apetito energético de la IA. Es una línea que los consultores de comunicación no podemos ignorar. 

El discurso climático corporativo, que durante años fue pilar de estrategias de posicionamiento, empieza a colisionar con el discurso de innovación tecnológica. Las empresas van a tener que elegir qué historia cuentan, y esa elección tendrá consecuencias reputacionales.

La IA no te quita el trabajo; te quita la excusa

El panel de periodismo de investigación ofreció lo que quizás fue el ejemplo más poderoso de la conferencia: la investigación de Reuters sobre crímenes de guerra en Siria. Un sistema de IA personalizado permitió procesar más de 600,000 documentos capturados de oficinas gubernamentales sirias, leer caligrafía árabe en imágenes borrosas, identificar nombres de generales, unidades militares y ubicaciones geográficas, y (lo más impresionante) mapear las relaciones entre documentos para reconstruir cadenas de mando. Lo que antes habría tomado años a un ejército de archivistas, la IA lo organizó en meses. Esos documentos indexados están siendo usados hoy como evidencia en tribunales europeos.

Pero la frase más lúcida del panel no fue sobre tecnología. Fue de Elfredah Kevin-Alerechi: “La IA no puede darte datos que no existen; por eso no puede quitarte el trabajo, porque tú puedes ir al campo.” Esa distinción entre capacidad de procesamiento y capacidad de recolección original es fundamental. En nuestro trabajo de análisis netnográfico y monitoreo mediático, la IA puede escalar lo que encontramos; no puede sustituir el ojo entrenado que sabe dónde buscar.

Y una advertencia necesaria: Ryan McNeill, de Reuters, y Sondre Ulvund Solstad, de The Economist, alertaron contra la confianza ciega en lo que hoy se llama “vibe-coding” , dejar que la IA genere código sin entender qué está haciendo. La regla es sencilla y brutal: si no puedes justificar cada decisión de programación, no podrás detectar los errores. Lo mismo aplica a quienes usan herramientas de IA para análisis de datos en comunicación: la máquina no te absuelve de la responsabilidad metodológica.

Verificar en la era de la desinformación automatizada

Las cifras del panel de fact-checking merecen atención detenida. Tai Nalon, directora de Aos Fatos en Brasil, reveló que en 2025 el 16% de las afirmaciones verificadas por su equipo involucraban contenido generado por IA, más del doble que el año anterior. La desinformación ya no necesita redactores humanos dedicados; la puede fabricar cualquiera con acceso a un modelo generativo.

Pero la conferencia también mostró el otro lado de la moneda. Chris Morris, de Full Fact, argumentó que la misma tecnología que acelera la desinformación permite a equipos pequeños operar a una escala que sería impensable con recursos humanos tradicionales. Clara Jiménez Cruz, de Maldita en España, explicó cómo están desarrollando modelos que priorizan las narrativas más dañinas para concentrar esfuerzos donde más importan. Y Aos Fatos presentó a “Fátima”, un chatbot que responde dudas del público en tiempo real.

Para quienes gestionamos reputación en mercados donde la desinformación digital es arma cotidiana, como el dominicano, estas herramientas no son curiosidades académicas. Son infraestructura de defensa narrativa. La pregunta ya no es si la desinformación tocará a nuestros clientes, sino cuándo y con qué grado de sofisticación.

La burbuja de legitimidad y la agencia humana

El panel sobre impacto sistémico fue el más filosóficamente denso y, por eso, el más necesario. Natali Helberger, de la Universidad de Ámsterdam, advirtió sobre una “burbuja de legitimidad”: la creación de regulaciones tecnológicas a espaldas de la gente, lo que erosiona la confianza institucional. Max Kasy, de Oxford, fue más directo: los verdaderos beneficiarios de la IA, según el análisis de las inversiones, serán la publicidad, la guerra y la vigilancia. No la salud, no la educación, no el bien común.

Carina Prunkl añadió una dimensión técnica crítica: los modelos de código abierto, al carecer de las salvaguardas de modelos cerrados como ChatGPT o Gemini, pueden ser modificados por cualquier persona para fines maliciosos. Es un recordatorio de que la democratización tecnológica tiene un reverso oscuro.

Pero la conclusión más potente del panel fue una afirmación de Helberger que debería ser epígrafe de cualquier estrategia de comunicación en esta era: “La IA no nos supera. Nosotros tomamos las decisiones.” En un ecosistema donde el determinismo tecnológico se vende como inevitabilidad, reivindicar la agencia humana es un acto de lucidez.

El modelo Guardian: escepticismo como política editorial

La sesión final, protagonizada por Chris Moran de The Guardian, fue una lección de contención estratégica. Mientras otros medios corren a lanzar chatbots y productos de IA visibles, el Guardian invirtió en algo menos vistoso pero más sólido: capacitar a todos sus periodistas para entender cómo funcionan los modelos probabilísticos y por qué deben ser escépticos ante sus resultados. No trucos de prompting, sino comprensión estructural.

La razón de fondo es reveladora. Moran argumentó que un chatbot basado en el archivo del Guardian no sería periodismo del Guardian, porque no estaría editado ni sería responsable de la misma manera. Es una distinción que debería resonar en toda organización que valore su marca: la automatización de la distribución de contenido no equivale a la automatización de la responsabilidad editorial.

El Guardian también demostró que el escepticismo no es inmovilismo. Usaron IA para investigar 100 años de retórica antiinmigrante en el Parlamento británico, un proyecto imposible sin aprendizaje automático. Y son miembros fundadores de SPUR, una coalición con BBC, Financial Times y otros medios para abordar colectivamente los desafíos de derechos de autor, modelos de negocio y citas precisas en la era de la IA.

Lo que me traje a Santo Domingo

Regreso de esta conferencia virtual -pues quede claro que no estuve en Londres- con tres convicciones reforzadas para nuestra práctica en Mediáticos.

Primera: la IA es una herramienta de escalamiento, no de sustitución. Amplifica lo que ya sabes hacer; no reemplaza lo que necesitas aprender. En análisis netnográfico, en monitoreo de reputación, en inteligencia mediática, la capacidad humana de interpretar contextos culturales, políticos e institucionales sigue siendo irreemplazable.

Segunda: la opacidad tecnológica es un riesgo reputacional. Las organizaciones que no puedan explicar cómo usan la IA serán las más vulnerables cuando algo falle. La transparencia no es una concesión moral; es blindaje estratégico.

Tercera: el determinismo tecnológico es la peor estrategia de comunicación posible. Decir “la IA cambió todo” es cómodo, pero falso. Las decisiones las siguen tomando personas, y esas personas necesitan asesores que entiendan tanto la tecnología como las narrativas que la rodean.

Oxford no me dio respuestas definitivas. Me dio algo más útil: mejores preguntas.

Avenida Bolívar 195
Torre Corporativa Bolívar
Suite 505. La Julia, Distrito Nacional, República Dominicana

Mediáticos © 2026
Design by Strategium
Conoce nuestro nuevo recurso: Cátedras de Comunicación Vol. 1: Estrategias
This is default text for notification bar