La IA generativa puede necesitar que las organizaciones de noticias y el periodismo tengan éxito

Noticias

Durante el año en el que OpenAI dio a conocer ChatGPT, casi 600 empresas de medios han optado por bloquear la tecnología para garantizar que su contenido no sea eliminado.

Algunas o la mayoría de las organizaciones de noticias han bloqueado también a Bard de Google AI y CCBot de Common Crawl, dos chatbots de IA.

Cada día aumenta el registro, tal como lo indica Ben Welsh, el editor de apps periodísticas de Reuters, quien elaboró una investigación de empresas informativas para su blog de medios.

Lucy Welsh comentó que de acuerdo a su investigación, la mitad de los editores de noticias desean controlar el proceso de inclusión de sus noticias en la Inteligencia Artificial de OpenAI. A su parecer, es importante dialogar y negociar con la compañía antes de permitir que sus contenidos sean incluidos.

La compañía OpenAI, quien ha desarrollado ChatGPT, ha brindado la oportunidad a 1.153 empresas de medios de comunicación de inhabilitar su chatbot en agosto del 2023. Hasta el día de hoy, aproximadamente la mitad de estas empresas han aceptado esta alternativa.

Aunque la mayor parte de las organizaciones listadas son de Estados Unidos, como The New York Times y CNN, también hay medios internacionales como ABC News de Australia, The Times of India y The South African.

La investigación de Welsh no exploró detalladamente las causas detrás de la prohibición de ChatGPT. No obstante, indicó que los medios de comunicación comerciales suelen encontrarse entre aquellos que bloquearon ChatGPT. Por otro lado, las asociaciones sin fines de lucro poseen una mayor predisposición a compartir su contenido.

La Voz de América ha intentado comunicarse con ChatGPT a través de distintas vías, como LinkedIn, correo electrónico y visitando sus instalaciones en San Francisco, pero no ha obtenido respuesta.

La Amenaza Percibida

Numerosos expertos en medios de comunicación y organizaciones defensoras de la libertad de prensa perciben la inteligencia artificial como una posible amenaza para las empresas editoriales y emisoras, que además podría afectar negativamente la práctica del periodismo con ética.

Una de las mayores inquietudes se centra en el empleo de la inteligencia artificial para generar historias e imágenes inexistentes y difundir datos erróneos y desinformación.

Vincent Berthier, quien encabeza el departamento de tecnología de Reporteros sin Fronteras (RSF), afirmó que ciertos grupos u organizaciones pueden emplear y desarrollar patrones para fabricar desinformación ajustada a sus planes o metas. Sin embargo, según explicó, el mayor peligro de desinformación en la actualidad proviene de la Inteligencia Artificial generativa que utiliza imágenes y simulaciones profundas.

Reporteros Sin Fronteras creó un comité integrado por 32 especialistas en periodismo e inteligencia artificial, liderado por la reconocida luchadora contra la desinformación y ganadora del Premio Nobel, Maria Ressa, con el propósito de establecer regulaciones en cuanto a la utilización de la tecnología en los medios de comunicación.

en el proceso de implementación de estas tecnologías. En noviembre, se lanzó la Carta de París sobre la Integración de la Inteligencia Artificial en el Periodismo, la cual establece directrices para el empleo de la IA por parte de las empresas informativas y enfatiza el compromiso de los periodistas como líderes en la integración de estas herramientas.

Según la opinión de Berthier, representante de RSF, son muchas las entidades que deciden no involucrarse en el asunto, lo que resulta en un claro mensaje para los expertos en inteligencia artificial.

Berthier declaró que las empresas de medios sostienen que la IA no se desarrollará sin su participación, y esa es exactamente la postura de RSF. Esta esencia queda plasmada en la carta que se difundió este mes, la cual enfatiza que los medios de comunicación y el periodismo deben formar parte del gobierno de la IA.

Berthier advirtió que la libertad de los medios se encuentra bajo amenaza por culpa de las grandes tecnologías y los algoritmos de las redes sociales.

"Esa es la razón por la cual trabajamos sin cesar para resguardar la libertad de expresión y garantizar el desempeño de los periodistas, quienes tienen la responsabilidad de brindar información precisa y oportuna a la audiencia", expresó.

En julio, se acordó una colaboración entre la agencia Associated Press y OpenAI con el fin de intercambiar datos y noticias relevantes.

Pamela Samuelson, quien es una becaria MacArthur, enseña derecho en la Universidad de California en Berkeley y es una experta en tecnología de la información. Afirmó que el acuerdo entre la inteligencia artificial y el periodismo es solo el principio de una serie de convenios de licencia y alianzas por venir.

Samuelson pronosticó que las compañías se esforzarían por crear su propia inteligencia artificial.

Samuelson dijo que es posible que The New York Times y CNN estén produciendo contenido generado automáticamente, pero no podemos estar seguros. Es probable que anuncien su producción o la mantengan privada.

A medida que avanza la discusión acerca del empleo de la Inteligencia Artificial en el ámbito periodístico, diversas entidades noticiosas y comunicadores exponen inquietudes y dudas éticas relacionadas con su implementación.

Algunos mencionan elementos monetarios, como la utilización de sus recursos patentados y de propiedad intelectual singular sin compensación ni autorización.

No obstante, según las palabras de Samuelson, es probable que las previsiones de desgracia, peligro inminente y condenación se encuentren sobredimensionadas.

Agregó que es posible que también se equivoquen quienes anticipan que todo va a salir perfecto. Será necesario descubrir un nuevo equilibrio.

La inteligencia artificial generativa tiene la capacidad de desarrollar programas informáticos, diseñar obras de arte, elaborar investigaciones e inclusive redactar noticias. Aunque los fabricantes eximen en gran medida su responsabilidad ante posibles fallos en cuanto a su confiabilidad y exactitud.

Cada vez más, los investigadores temen que el uso de la Inteligencia Artificial generativa, para crear y acceder a noticias e información, se esté expandiendo. Uno de los grandes peligros radica en que con demasiada frecuencia, la información proporcionada no es fiable ni precisa.

Según Welsh, el periodismo valora la precisión por encima de todo, algo en lo que estas herramientas fallan. Aunque destacan por su creatividad y capacidad para generar resultados atractivos, la exactitud de la información es un obstáculo para ellas.

Algunos expertos y seguidores de la Inteligencia Artificial sostienen que el aumento de entidades periodísticas que vetan los sistemas robóticos podría incidir negativamente en la calidad de esta tecnología en desarrollo.

Escrito por Robin Guess, reportero del equipo de servicios en inglés de la Voz de América.

Leer más
Noticias similares
Los noticias más populares esta semana