En 2019 OpenAI no permitió acceder a un antepasado de GPT-4 por ser "muy peligroso". Ahora nos pone una bomba nuclear en las manos

En 2019 OpenAI no permitió acceder a un antepasado de GPT-4 por ser

2019. Una compañía desconocida entonces para muchos, una tal OpenAI, difundía la noticia que había desarrollado una inteligencia artificial con la capacidad de redactar sin ayuda humana textos de noticias falsas, dotadas de tal verosimilitud que decidieron no lanzar sino una versión limitada de la misma.

Un vídeo que mostraba dicha tecnología en funcionamiento (bautizada como GPT-2), difundido por The Guardian, mostraba cómo, a partir de una única frase, es capaz de generar un texto largo y con sentido, pero de contenido falso (incluyendo fuentes inventadas de la información). Nada sorprendente… a estas alturas.

Calificar a su propia IA de "peligrosa" o de "potencialmente maliciosa" les proporcionó titulares en ese momento. Pero también críticas desde la propia industria tecnológica. La directora de investigación de Nvidia, publicó entonces en Twitter un ataque frontal contra OpenAI:

"Estáis exagerando como nunca antes se había hecho. ¿Qué chorrada es ésa de 'malicioso'? No le hacéis ningún favor a la ciencia usando esa palabra. Si crees que realmente es capaz de hacer lo que decís, deberíais abrirlo a los investigadores, no a los medios de comunicación que buscan con ansia el clickbait".

Durante el siguiente medio año, el miedo a esa 'máquina de producir fake news' se fue quedando en nada: primero un estudiante fue capaz de replicar y publicar el modelo, y después la propia OpenAI decidió liberarlo de manera 'incremental'. Connor Leahy, el estudiante en cuestión, reconoció que las noticias falsas podían ser un problema muy real, pero que no eran ni por asomo un problema "nuevo".

Afirmaba, además, que los humanos seguíamos generando mejores textos que GPT-2 y que usar dicha IA sólo reducía el coste de generar textos, poco más. Desde luego, era un avance para la época, pero su capacidad para "sonar humano" era aún reducida, y tendía a 'alucinar' con frecuencia. Quizá no era, al fin y al cabo, tan 'peligroso'.

Poco después, GPT-2 dio paso a GPT-3, éste a GPT-3.5, y este último se convirtió en la base de un popular chatbot: ChatGPT, que es capaz de aprobar exámenes universitarios, de llenar Amazon de libros generados sin intervención humana o de sustituir a un profesor como fuente de información. Ahora, además, la versión de pago de ChatGPT ofrece acceso a GPT-4, una versión multimodal, más eficiente y 'humana' de GPT.

Hay algo que sí se mantiene desde 2019 hasta ahora: OpenAI ha dejado de ser 'open' y apenas da información sobre sus modelos de IA a la comunidad de investigadores

Lo curioso es que, tras todas las reservas mostradas por OpenAI a la hora de permitir el acceso a GPT-2 (una IA que ahora sólo podemos definir como limitada, aun con toda la revolución que representó en su momento), todo indica que la compañía ha preferido ser menos cuidadosa al lanzar sus sucesores  al mercado.

Y eso a pesar de que todo indica que dichos sucesores son, potencialmente, un arma más peligrosa que GPT-2.

GPT-4, más peligro que una caja de bombas

Paul Röttger es un experto en IA que contaba recientemente en Twitter que él había formado parte del "equipo rojo de OpenAI para GPT-4", el responsable de poner a prueba su capacidad para generar contenido dañino a lo largo de las sucesivas iteraciones que ha tenido durante los seis meses de prueba:

"Me me convenció de que la seguridad del modelo es el desafío más difícil y más emocionante en el campo del procesamiento del lenguaje natural en este momento.
La seguridad es difícil porque los modelos de hoy son herramientas de propósito general. Y para casi todos los prompts que son seguros y útiles, hay una versión no segura. […] La búsqueda de casos de uso inseguros en sí misma no es fácil. Encontrar y evaluar los prompts correctos requiere un conocimiento experto.
Quieres que el modelo escriba buenos anuncios de trabajo, pero no para algún grupo nazi. ¿Publicaciones de blogs? No para terroristas. ¿Química? No para explosivos… Además, no siempre está claro dónde trazar las líneas en materia de seguridad. Lo que es seguro o no depende de a quién le preguntes.

El 'documento técnico' oficial de GPT-4 (aquí el PDF) aborda cómo cambian las respuestas a ciertos 'prompts' (instrucciones) entre la versión original de GPT-4, sin limitaciones, y la versión que ya podemos probar en ChatGPT Plus.

Así, nos muestra, por ejemplo, que la versión sin filtros de este modelo es capaz de proporcionarnos "ejemplos hipotéticos" de cómo matar gente invirtiendo tan sólo 1 € en la tarea; por fortuna, la versión final afirma "no poder proporcionar información o ayuda para causar daño a otros".

Grafico

Algo similar ocurre con las instrucciones para sintetizar productos químicos peligrosos, para evadir el lavado de dinero o para automutilarse "sin que nadie se dé cuenta". Pero no podemos dejar de pensar en que GPT-3.5 ya contaba con estas limitaciones y, sin embargo, un grupo de usuarios lo bastante creativos fue capaz de crear un 'juego de rol' que desbloqueaba sus limitaciones… recurriendo a inducirle 'personalidad múltiple'.

¿Qué nos garantiza que, con suficiente tiempo y motivación (y los terroristas suelen tener de eso último) alguien no terminará descubriendo los puntos débiles del nuevo modelo? Si tantas reservas tenía OpenAI hace cuatro años porque GPT-2 podía facilitar la tarea de crear unas tristes fake news, ¿qué ha cambiado para que ahora ponga en nuestras manos una herramienta aún más peligrosa?

¿Qué ha cambiado en OpenAI? ¿Cui prodest?

Podríamos decir que nada ha cambiado: que su actitud de 2019 no fue más que una cuidada operación de marketing para que se empezara a hablar de ellos en los medios. O quizá era sólo un asunto de reputación corporativa: por aquellos años todavía persistía el pánico por la 'fake news' desatado tras la victoria de Trump unos años antes, y nadie quería ser señalado con el dedo como su impulsor; destacar su preocupación por esa eventualidad era su forma de evitarlo.

Sin embargo, hay otro aspecto de OpenAI que no estamos teniendo en cuenta: 'Cui prodest?' (¿Quién se beneficia?). Tan sólo un mes después de anunciar la existencia de GPT-2, OpenAI Inc. (una entidad oficialmente sin ánimo de lucro) creó OpenAI LP como una subsidiaria... con ánimo de lucro, para poder así captar más capital y ofrecer mejores sueldos.

Como Elon Musk ha señalado recientemente, la OpenAI que él cofundó en 2015 (y que abandonó en 2018, meses antes de este cambio) no se parece en nada a la actual, una compañía que gana dinero a espuertas con los avances de la IA... mientras su CEO posee desde 2016 un búnker en el que refugiarse por si "una inteligencia artificial nos ataca".

Por no mencionar que cada vez más se comporta como 'el departamento de desarrollo de IA' de Microsoft, una compañía que acaba de suprimir su equipo de desarrollo responsable de la inteligencia artificial porque no estaba interesada en oír hablar de ralentizar el ritmo de lanzamiento de productos.

Imagen | Basada en original de DC Comics

En Genbeta | El open source, un elemento clave en la explosión de inteligencia artificial que está ocurriendo ante nuestros ojos

-
La noticia En 2019 OpenAI no permitió acceder a un antepasado de GPT-4 por ser "muy peligroso". Ahora nos pone una bomba nuclear en las manos fue publicada originalmente en Genbeta por Marcos Merino .




Fuente: Ganbeta
Enlace: En 2019 OpenAI no permitió acceder a un antepasado de GPT-4 por ser "muy peligroso". Ahora nos pone una bomba nuclear en las manos

Comentarios