Punto Convergente

¿Real o generado por IA?: qué dicen los expertos

image
Compartilo
Cada vez es más difícil reconocer si un contenido fue generado por inteligencia artificial. Profesionales expertos en la materia advirtieron sobre los peligros de la desinformación y brindaron algunas recomendaciones para interactuar con un chatbot.


El 70% de los latinoamericanos no sabe cómo detectar si una noticia es verdadera o falsa, según el informe de seguridad Kaspersky. Esta cifra se debe a la falta de búsqueda de información y de lectura de manera activa y frecuente por parte de los usuarios en Internet.

El principal agravante de la desinformación en redes sociales y en Internet es la cantidad de contenidos en la web que fueron generados por inteligencia artificial. Según un estudio realizado por Amazon Web Services (AWS), el 57% de la información de la web, fue generada por IA o traducida con el apoyo de algún modelo de IA.

Si la inteligencia artificial no extrae datos de fuentes verídicas, puede generar alucinaciones, es decir, “información inventada pero plausible”, explicó por Opy Morales, director editorial de iniciativas de IA en Infobae. “Esto significa la perpetuación de sesgos existentes en los datos de entrenamiento, difusión de desinformación, erosión de la confianza en la propia IA y, si se usa en periodismo sin verificación, un daño reputacional severo y la desinformación del público –continuó Opy Morales– es un ciclo de retroalimentación: la ‘basura’ online puede alimentar la IA, que produce más ‘basura’ a su vez”.

Fuente: Pixabay

La principal característica de la inteligencia artificial es que es generativa: toma todos los datos de la web, todos los datos que las personas le dan al usarla, y genera algo nuevo. “Ahora, si se empieza a nutrir de otras fuentes como la dark web o cosas que son un poco oscuras en cuanto a ética, como usuarios finales no lo podríamos saber”, aseguró Bruno Rossini Rossa, especialista en infraestructura y automatización de procesos en el ámbito del desarrollo. Con el fin de evitar la perpetuación de la desinformación, es importante reconocer qué contenidos fueron creados por IA y también aprender su adecuado uso.

Para identificar contenidos visuales generados por IA, Fátima Álvarez, profesora de Informática en escuelas primarias y secundarias, recomendó prestar atención a las manos, ya que pueden tener mal un dedo o faltarle varios, y observar bien los escudos, que no puede recrearlos idénticos debido a que “es generativa y necesita crear algo distinto”.

También hay que prestarle atención a las sombras, porque no siempre se encuentran en donde deberían estar, y los mapas no los puede hacer correctamente, ya que no usa datos geográficos reales. Sin embargo, “estas imperfecciones son cada vez más difíciles de detectar para el ojo humano, pues la IA se está complejizando cada vez más”, afirmó Rossini Rossa.

En el caso de los textos generados por IA, es mucho más complicado reconocerlos. Algunos indicadores son el uso del guión largo, característico de ChatGPT, y el uso de un lenguaje formal y neutro. Según Morales, “a medida que pasen los años, será casi imposible detectarlo. Hoy en día, si el trabajo está bien curado y editado por un humano, ya es muy difícil de diferenciar”.

¿Qué hacer para obtener el mejor resultado al interactuar con un chatbot?

  • Dar contexto y expectativas
  • Establecer el formato de salida
  • Pedirle que no adivine la respuesta, ya que la IA es generativa
  • Asignarle un rol
  • Pedirle que brinde las fuentes

Si bien estas herramientas son útiles, es necesario acompañarlas de un trabajo de investigación propio por parte de los usuarios de IA. “Hay que saber del tema para poder tener una conversación con la inteligencia artificial”, aclaró Álvarez. Solo de esa manera se puede tener un buen diálogo con el chatbot y obtener buenos resultados.

Sin embargo, la búsqueda de información de forma tradicional se vio afectada por la aparición de AI Overview, la inteligencia artificial desarrollada por Google que opera en el buscador del navegador. Con el surgimiento de esta IA, los principales medios confiables de información se encuentran en riesgo de no poder sostenerse económicamente debido a la creciente falta de clicks en los links. Las personas se sienten satisfechas con la respuesta generada por AI Overview, que extrae datos de diversas fuentes, por lo que no navegan entre los distintos links como se hacía tradicionalmente.

Esto es un problema crítico y existencial para los medios ya que se financian de los ingresos por publicidad y suscripciones, que son impulsados por el tráfico dentro del sitio web. Esta situación podría incluso desmotivar el surgimiento de nuevas plataformas informativas o medios, porque “el incentivo económico para crear contenido original se debilita”, según explicó Morales.

Hay una responsabilidad compartida entre los usuarios de Internet y redes sociales, y las empresas que desarrollan LLMs (Large Language Model) en cuanto a regular a la IA, aclaró Rossini Rossa. “Es la competencia entre diferentes empresas que desarrollaron Inteligencias Artificiales que hay en el mundo lo que impide esa regulación–agregó Álvarez– ya que, de limitar los LLMs, se quedarían atrás frente a las otras desarrolladoras”.

Por otro lado, la regulación de la IA es un esfuerzo multinivel y complejo que no solo involucra a los usuarios, a la hora de escribir prompts, y también empresas, a la hora de desarrollar los LLMs, sino que también intervienen gobiernos y organismos supranacionales, que establecen marcos legales, estándares éticos y de transparencia, y organizaciones independientes y consorcios, que auditan algoritmos, promoviendo la investigación en IA ética y segura.

Redactado por

Scroll al inicio