En las redacciones argentinas, la inteligencia artificial (IA) se usa a diario y abre una discusión ética: ¿deben los medios avisar al lector cuando una nota fue asistida por IA?
Las herramientas de Inteligencia Artificial son parte de la rutina de quienes producen contenido en los medios. Se utilizan para transcribir entrevistas, sugerir títulos, resumir textos o analizar datos para distrbuir a las audiencias y se abre entonces un debate sobre el uso ético de la IA.
Sin embargo, su incorporación abrió el debate acerca de si el lector debe estar avisado acerca de que se incorporó IA para optimizar el resutlado.
“El debate no es si hay que usarla, sino cómo usarla”, sostuvo el empresario Daniel Hadad, fundador de Infobae, durante una conferencia en la Universidad Católica Argentina.
En su intervención, señaló que el cambio que trae la IA “no se parece a internet”, porque obliga a adaptarse con mayor velocidad. Su postura es clara: la inteligencia artificial debe ser una herramienta que libere tiempo al periodista, no que lo reemplace.
La Nación: uso controlado y transparencia declarada
En La Nación, la IA ya forma parte del trabajo cotidiano. Según explicó Javier Saúl, prosecretario de Audiencias del diario, la redacción desarrolla su propia herramienta de IA para regenerar artículos basados en notas previamente publicadas.
“Usamos herramientas de IA, incluso una propia. No la usamos para generar notas nuevas, sino para regenerar contenidos en base a artículos ya hechos. Cuando se utiliza, siempre hay edición humana y además avisamos que fue asistida por IA”, detalla Saúl.

Texto que figura en cada nota que fue asistida con IA en La Nación
El medio, además, cuenta con una guía interna de buenas prácticas y realiza talleres de capacitación sobre uso ético de IA en redacciones. “Lo piensa un humano, lo ejecuta la IA, lo edita un humano y se informa al lector que fue asistida por IA”, resume.
Saúl reconoce que no todos los medios informan este tipo de uso y advierte sobre el problema de la “IA bajo el radar”: “El problema es cuando se usa sin avisar, sin control editorial ni transparencia sobre la información que se carga o procesa.”
FOPEA: la ética y la formación como prioridad
Desde el Foro de Periodismo Argentino (FOPEA), la discusión se orienta más a la formación y regulación ética que a imponer una norma sobre la transparencia.
El vicepresidente de FOPEA, Claudio Jacquelin, explica que la organización no exige formalmente que los medios informen sobre el uso de IA, aunque reconoce la importancia de ese debate.
“No incentivamos de manera formal que los medios notifiquen el uso de IA, pero el tema es parte de las discusiones para actualizar nuestro Código de Ética.”

FOPEA ha integrado la inteligencia artificial como eje central de sus capacitaciones desde 2023. “Buscamos que los periodistas aprendan a usarla con criterio ético y reflexivo. La IA puede fortalecer la investigación y optimizar tareas, pero también exige revisar la verificación y la transparencia”, señala Jacquelin.
La organización advierte que la IA no regulada puede erosionar la confianza pública: “Su despliegue sin marcos éticos puede escalar la desinformación y la manipulación. Eso impacta directamente en la credibilidad del periodismo y, por ende, en la calidad democrática.”
Para FOPEA, el rol de las asociaciones es clave: promover un debate multisectorial que fije estándares nacionales de transparencia y responsabilidad en el uso de IA periodística.
Entre la transparencia y la confianza
El dilema de si un medio debe informar o no sobre el uso de IA tiene argumentos válidos de ambos lados. Tanto La Nación como FOPEA coinciden en que la clave no es prohibir ni ocultar, sino capacitar y supervisar. La IA no reemplaza al periodista, pero sí redefine su rol.
Como advierte Hadad, “quien no evolucione con estas herramientas quedará atrás”. Pero esa evolución debe darse sin perder el valor más difícil de construir y el más fácil de perder: la credibilidad.