El centro de investigación OpenAI decidió no lanzarlo por el momento, pues afirma que hay muchas formas de utilizarlo con fines perversos
Un grupo de investigadores reveló esta semana que desarrolló un generador de texto automático utilizando inteligencia artificial con muy buenos resultados, pero que decidió no darlo a conocer por el momento por el peligro de que sea utilizado con fines maliciosos.
El software desarrollado por OpenAI podría ser usado para escribir noticias, reseñas de productos y otro tipo de texto que podrían ser más realistas que cualquier otro producido antes por una computadora.
OpenAI, un centro de investigación que es financiado por Tesla, Amazon y Microsoft, dijo que el nuevo software “logra un rendimiento de avanzada” en varios tipos de textos, como resúmenes o traducciones.
Los investigadores señalaron que hay muchas formas de utilizar el programa con fines perversos, entre ellos la generación de artículos de “fake news” (noticias falsas), hacerse pasar por otros en internet o para producir contenido falso en las redes sociales.
Además indicaron que su modelo, llamado GPT-2, “supera otros modelos de lenguaje” entrenados en tareas como entradas en Wikipedia, noticias o libros sin necesidad de un entrenamiento específico.