Microsoft obtiene acceso exclusivo a la IA que se considera 'demasiado peligrosa para lanzar'
Microsoft dice que la IA podría usarse para ayudar a escribir y componer, traducir idiomas y más
Microsoft tiene una licencia exclusiva para usar el generador de lenguaje de inteligencia artificial GPT-3 de OpenAI , anunció la compañía.
La iteración anterior de GPT-3, llamada GPT-2, fue noticia por ser " demasiado peligrosa para publicar " y tiene numerosas capacidades, incluido el diseño de sitios web, la prescripción de medicamentos, la respuesta a preguntas y la redacción de artículos.
Microsoft dice que "aprovechará sus innovaciones técnicas para desarrollar y ofrecer soluciones avanzadas de inteligencia artificial para nuestros clientes", aunque no especificó cuál sería.
"El alcance del potencial comercial y creativo que se puede desbloquear a través del modelo GPT-3 es profundo, con capacidades realmente novedosas, la mayoría de las cuales ni siquiera hemos imaginado todavía", escribió Kevin Scott, vicepresidente ejecutivo y director de tecnología de Microsoft. .
“Ayudando directamente a la creatividad y el ingenio humanos en áreas como la escritura y la composición, describiendo y resumiendo grandes bloques de datos de formato largo (incluido el código), convirtiendo el lenguaje natural a otro idioma; las posibilidades están limitadas solo por las ideas y escenarios que traemos a la mesa ”, agregó.
OpenAI aclaró en su propio blog que el acuerdo no afectará el acceso a GPT-3 a través de la API de OpenAI, por lo que los usuarios actuales y futuros del modelo podrán continuar creando aplicaciones.
Dice que su modelo comercial ha recibido decenas de miles de aplicaciones. GPT-3 también permanecerá en una versión beta limitada para que los académicos prueben las capacidades y limitaciones del modelo.
Microsoft y OpenAI ya tienen relaciones existentes; Microsoft Azure es el servicio de computación en la nube en el que OpenAI entrena sus programas de inteligencia artificial, y el año pasado Microsoft se convirtió en el proveedor de nube exclusivo de OpenAI.
La razón por la que el programa de OpenAI se consideró tan peligroso fue porque es capaz de recibir un fragmento de texto y predecir las palabras que vienen junto con un grado de precisión tan alto que sería difícil distinguir entre él y un humano.
Como tal, podría ser abusado por grupos extremistas para crear "propaganda sintética" para supremacistas blancos o islamis yihadistas, por ejemplo.
"Debido a nuestras preocupaciones sobre las aplicaciones maliciosas de la tecnología, no vamos a lanzar el modelo entrenado", escribió OpenAI en febrero de 2019.
Algunos creían que las impresionantes capacidades del algoritmo significaban que amenazaría a las industrias o incluso mostraría autoconciencia.
Sin embargo, el CEO de OpenAI, Sam Altman, ha dicho que tales exageraciones son simplemente "exageraciones".
"Es impresionante ... pero todavía tiene serias debilidades y, a veces, comete errores muy tontos", agregó.