Tech

Con unas cuantas palabras, este software puede escribir 'fake news'

OpenIA, un grupo de investigación cofundado por Musk, reveló un programa que puede escribir notas falsas convincentes.

OpenAI, grupo de investigación sobre inteligencia artificial cofundado por el multimillonario Elon Musk, reveló un software que puede producir noticias falsas de apariencia auténtica luego de recibir solo una pequeña cantidad de información.

En un ejemplo publicado este jueves por OpenAI, el sistema recibió un texto de muestra: "Un vagón de tren con materiales nucleares controlados fue robado hoy en Cincinnati. Se desconoce su paradero".

A partir de esto, el software pudo generar una noticia convincente de siete párrafos que hasta incluyó citas de funcionarios de gobierno, aunque el único detalle es que era completamente falsa.

"Los textos que son capaces de generar a partir de las indicaciones son muy impresionantes", comentó Sam Bowman, científico informático de la Universidad de Nueva York que se especializa en el procesamiento del lenguaje natural y que no participó en el proyecto OpenAI, aunque recibió información sobre el mismo. "Es capaz de hacer cosas que son mucho más sofisticadas que lo que hemos visto antes".

OpenAI es consciente de la inquietud en torno a las noticias falsas, precisó Jack Clark, director de políticas de la organización. "Uno de los propósitos no tan buenos sería la desinformación porque puede producir cosas que suenan coherentes pero que no son precisas", detalló.

A modo de precaución, OpenAI decidió no publicar o lanzar las versiones más sofisticadas de su software. Sin embargo, creó una herramienta que permite a autoridades, periodistas, escritores y artistas experimentar con el algoritmo para ver qué tipo de texto puede generar y qué otro tipo de tareas puede realizar.

La posibilidad de que el software sea capaz de crear casi instantáneamente noticias falsas surge en medio de preocupaciones a nivel mundial sobre el papel de la tecnología en la difusión de desinformación.

Reguladores europeos amenazaron con tomar medidas si las empresas de tecnología no hacen más para evitar que sus productos ayuden a influir en los votantes y Facebook trabaja desde las elecciones de 2016 en Estados Unidos para tratar de contener la información falsa en su plataforma.

Clark y Bowman explicaron que, por ahora, las habilidades del sistema no son suficientemente consistentes para transformarse en una amenaza inmediata. "Esta no es una tecnología lista para usarse hoy en día y eso es algo bueno", aseguró Clark.

Presentada en un informe y una publicación de blog el jueves, la creación de OpenAI desarrolla una tarea conocida como modelado de lenguaje, que consiste en predecir la siguiente palabra de un fragmento de texto según el conocimiento de todas las palabras anteriores, de manera similar a la función de autocompletar al escribir un correo electrónico en un teléfono móvil. También se puede utilizar para la traducción y para responder preguntas abiertas.

También lee: