La polémica de ‘CNET’ y sus artículos escritos por inteligencia artificial han abierto una caja de Pandora

Robot escribiendo en una Macbook usando IA | Inteligencia artificial
Imagen creada por una IA

El uso de la inteligencia artificial se ha disparado en todos los frentes. Mientras que la atención está centrada en ChatGPT y los algoritmos que generan imágenes, la realidad es que la integración de la tecnología en los flujos de trabajo va más allá de un simple chatbot. Un caso que tomó fuerza en los últimos días es la publicación de artículos escritos por IA en CNET.

A comienzos de mes, Futurism reportó que la web de tecnología ha publicado decenas de artículos generados con inteligencia artificial. La automatización va más allá de uno o dos párrafos, ya que CNET dio luz verde para que se escribieran en su totalidad. Existen más de 70 piezas firmadas bajo el seudónimo CNET Money, todas enfocadas en consejos financieros y presuntamente verificadas por el equipo editorial.

El uso de la inteligencia artificial para escribir artículos completos ha generado polémica entre el público y algunos miembros de la prensa. Lejos del temor a ser reemplazados por una IA en el corto plazo, la crítica se centra en la falta de transparencia del medio con sus lectores. Cada publicación cuenta con una advertencia que dice «Este artículo fue asistido por un motor de IA y revisado, verificado y editado por nuestro equipo editorial», aunque con una tipografía tan pequeña que pasaría desapercibida para el público en general

La veracidad del contenido también fue puesta en duda. Un segundo artículo de Futurism descubrió que algunos artículos cuentan con errores garrafales en conceptos básicos de finanzas. La inteligencia artificial que escribe en CNET no interpreta bien la información, lo que deriva en cálculos erróneos en los intereses de un préstamo o en las ganancias por invertir.

Pronto no podrás distinguir si el artículo fue generado por un humano o una inteligencia artificial

ChatGPT

Ante la polémica, CNET defendió el uso de herramientas automatizadas en la redacción de artículos. Connie Guglielmo, editora en jefe, publicó una pieza que intenta transparentar las publicaciones con inteligencia artificial de su sección de finanzas. Guglielmo menciona que descubrieron errores como nombres de empresas incompletos, números transpuestos o lenguaje confuso.

Un punto que llama la atención es el referente al plagio. De acuerdo con The Verge41 de las 77 publicaciones se corrigieron y ahora incluyen la advertencia: «Reemplazamos frases que no eran del todo originales». Guglielmo reveló que el editor no pudo detectar oraciones o frases que se parecían a la fuente original. «Estamos desarrollando formas adicionales de marcar coincidencias exactas o similares con otro contenido publicado identificado por la herramienta de IA», dijo.

Los motores de IA, como los humanos, cometen errores.

Connie Guglielmo, editora de CNET

CNET fue claro en su postura y aseguró que continuarán explorando el uso de la inteligencia artificial en su flujo de trabajo editorial. El medio advierte que las empresas de medios y los creadores de contenido necesitan aprender (y comprender) sobre el uso de herramientas automatizadas. Aunque su aplicación es para contenido menor, esto no garantiza que en un futuro no podremos distinguir si el contenido lo escribió un humano o una IA.

IA vs. creadores de contenido

Midjourney, IA
Imagen generada por Midjourney

El uso de inteligencia artificial como herramienta para automatizar el trabajo creativo ha creado fricción en distintos frentes. Por un lado tenemos el caso ChatGPT y su prohibición en algunas escuelas de Estados Unidos. Mientras los profesores buscan adaptar el modelo educativo para aprovechar la tecnología, algunos alumnos de universidades prestigiosas —como Stanford— confesaron que hicieron trampa al usar ChatGPT en sus exámenes finales.

También está el problema del contenido con copyright. Para poder funcionar correctamente, los motores de IA tienen que nutrirse de contenido y aprender de él. Herramientas como Midjourney y Stability AI ya son el foco de una demanda por infringir derechos de autor. Un grupo de artistas acusaron a las empresas de entrenar a sus modelos de inteligencia artificial con imágenes sin consentimiento.

La pelea contra la IA generativa se ha librado con más fuerza en este campo. Desde hace meses, los artistas realizan protestas en comunidades como Artstation publicando imágenes con el logo «NO AI», obligando a la web a imponer filtros y etiquetas al contenido automatizado. Los abogados de Ortiz y compañía consideran a las imágenes generadas por inteligencia artificial como contenido robado.

Si bien las demandas se resolverán y la legislación se ajustará a los nuevos cambios, es iluso pensar en la inteligencia artificial como una moda pasajera. La explosión de ChatGPT y DALL-E son el comienzo de una nueva era en la que, nos guste o no, las herramientas automatizadas formarán parte de nuestro día a día. «Nos adaptamos a las calculadoras y cambiamos los exámenes en la clase de matemáticas. Esta es una versión más extrema de eso, sin duda», dijo Sam Altman, CEO de Open AI.

https://hipertextual.com/2023/01/cnet-articulos-escritos-ia-crean-polemica

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.