Inteligencia artificial: qué hay detrás del despido y rápida reincorporación de Sam Altman a OpenAI
Ha sido una semana bastante intensa para OpenAI, la empresa detrás de ChatGPT, y su cofundador Sam Altman.
Altman, quien ayudó a fundar OpenAI como un laboratorio de investigación sin fines de lucro en 2015, fue despedido como director ejecutivo el viernes en una salida repentina y en gran parte inexplicada que dejó atónita a la industria.
Y aunque fue restituido en el mismo puesto apenas unos días después de su despido, el movimiento dejó más preguntas que respuestas.
Kevin Roose en The New York Times describe la ajetreada saga como el resultado de una lucha de poder entre quienes ven en la inteligencia artificial un gran avance tecnológico más como antes lo fueron la máquina de vapor, la electricidad o la informática que va a dar pie a una nueva era de prosperidad, los capitalistas; frente a quienes la consideran un peligroso monstruo que debe ser contenido para evitar que tome el poder y nos mate a todos.
Según dos personas familiarizadas con el asunto citadas por Reuters, antes del despido de Altman, varios investigadores de la compañía escribieron una carta a la junta directiva advirtiendo sobre un descubrimiento poderoso de inteligencia artificial que, según dijeron, podría amenazar a la humanidad. Esta carta y ese algoritmo, se supone, están detrás del despido de Altman.
Y con su restitución, escribe Roose, ganaron los capitalistas.
Además, varios expertos agregan que el caso evidencia destaca cómo deberían ser los gobiernos, y no las grandes empresas tecnológicas, los que tomen las decisiones sobre la regulación de la inteligencia artificial generativa.
A continuación te explicamos algunos elementos clave de la saga de OpenAI y lo que está en juego para la inteligencia artificial en general.
Sam Altman, despedido y reenganchado en OpenAI en pocos días
Altman es cofundador de OpenAI, la empresa con sede en San Francisco detrás de ChatGPT, el chatbot que ahora es utilizado ampliamente, desde escuelas hasta atención médica.
La explosión de ChatGPT desde su llegada hace un año llevó a Altman al centro de atención de la rápida comercialización de la inteligencia artificial generativa, que puede producir imágenes novedosas, pasajes de texto y otros medios. Y a medida que se convirtió en la voz más buscada del Silicon Valley sobre las promesas y los peligros potenciales de esta tecnología, Altman ayudó a transformar a OpenAI en una startup de renombre mundial.
Pero su posición en OpenAI tuvo algunos giros complicados en la vorágine de la semana pasada. Altman fue despedido como director ejecutivo el viernes y, días después, regresó al trabajo con una nueva junta directiva.
En ese tiempo, Microsoft, que ha invertido miles de millones de dólares en OpenAI y tiene derechos sobre su tecnología existente, ayudó a impulsar el regreso de Altman, contratándolo rápidamente, así como a otro cofundador y expresidente de la misma compañía, Greg Brockman, quien renunció en protesta después de la destitución de su jefe.
Mientras tanto, cientos de empleados de OpenAI amenazaron con renunciar en solidaridad y Microsoft se ofreció a contratarlos respetando incluso sus salarios.
Tanto Altman como Brockman celebraron su regreso a la empresa en publicaciones en X (antes Twitter) el miércoles.
La renuncia de Altman, una carta alarmante y el misterioso proyecto Q*
Hay mucho que aún se desconoce sobre la destitución inicial de Altman. El anuncio del viernes dijo que "no fue consistentemente franco en sus comunicaciones" con la entonces junta directiva, que se negó a proporcionar detalles más específicos.
Aparentemente, cuatro días antes de su despido, varios investigadores escribieron una carta a la junta directiva advirtiendo sobre un descubrimiento poderoso de inteligencia artificial que podría amenazar a la humanidad, según dijeron a Reuters dos personas familiarizadas con el asunto.
Las fuentes citaron la carta como un factor entre una lista más larga de quejas de la junta que llevaron al despido de Altman, entre las cuales estaban las preocupaciones sobre la comercialización de avances antes de entender las consecuencias.
OpenAI no ha hecho comentarios sobre la carta, pero reconoció en un mensaje interno a los empleados un proyecto llamado Q* (pronunciado Q-Star).
Según personas citadas por Reuters, podría tratarse de un avance en la búsqueda de la llamada inteligencia artificial generativa (IAG), sistemas autónomos que superan a los humanos en la mayoría de las tareas económicamente valiosas.
¿Qué es la inteligencia artificial generativa y cómo se regula?
A diferencia de la inteligencia artificial que procesa datos y completa tareas mediante reglas predefinidas, la inteligencia artificial generativa (incluidos los chatbots como ChatGPT) puede crear algo nuevo.
Las empresas tecnológicas siguen liderando la regulación de la IA y sus riesgos, mientras que los gobiernos de todo el mundo trabajan para ponerse al día.
En Estados Unidos, el presidente Joe Biden firmó el mes pasado una ambiciosa orden ejecutiva que busca equilibrar las necesidades de las empresas de tecnología de vanguardia con la seguridad nacional y los derechos de los consumidores.
La orden, que probablemente necesitará ser complementada con acciones del Congreso, es un primer paso destinado a garantizar que la IA sea confiable y útil, en lugar de engañosa y destructiva. Busca orientar el desarrollo de la IA para que las empresas puedan obtener ganancias sin poner en peligro la seguridad pública.
En la Unión Europea, los negociadores están dando los últimos toques a lo que se espera sea la primera regulación integral de la IA en el mundo. Pero, al parecer, se han estancado en si y cómo incluir los productos de IA más polémicos y revolucionarios, los modelos de lenguaje grandes comercializados que respaldan sistemas de IA generativa como ChatGPT.
Los chatbots apenas se mencionaron cuando Bruselas presentó por primera vez su proyecto de legislación en 2021, que se centraba en la IA con usos específicos. Pero los funcionarios han estado trabajando rápidamente para averiguar cómo incorporar estos sistemas, también conocidos como modelos fundamentales, en la versión final.
Por qué hay interés y preocupación por el episodio de Open IA
"El episodio de OpenAI muestra cuán frágil es actualmente el ecosistema de la inteligencia artificial, incluido abordar los riesgos de la IA", dijo a la AP Johann Laux, experto en el Instituto de Internet de Oxford enfocado en la supervisión humana de la inteligencia artificial.
La turbulencia también resaltó las diferencias entre Altman y los de la junta directiva anterior de la compañía, quienes han expresado diversas opiniones sobre los riesgos de seguridad que plantea la IA a medida que avanza la tecnología.
Varios expertos agregan que este drama destaca cómo deberían ser los gobiernos, y no las grandes empresas tecnológicas, los que deberían tomar decisiones sobre la regulación de la inteligencia artificial, especialmente para tecnologías de rápido desarrollo como la inteligencia artificial generativa.
"Los eventos de los últimos días no solo han puesto en peligro el intento de OpenAI de introducir una gobernanza corporativa más ética en la gestión de su empresa, sino que también muestra que la gobernanza corporativa, incluso cuando es bien intencionada, puede terminar fácilmente siendo devorada por las dinámicas e intereses de otras corporaciones", dijo Enza Iannopollo, analista principal de Forrester.
La lección, según Iannopollo, es que las empresas no pueden proporcionar por sí solas el nivel de seguridad y confianza en la IA que la sociedad necesita. "Normas y barreras, diseñadas con las empresas y aplicadas por reguladores con rigor, son cruciales si queremos beneficiarnos de la IA", agregó.
Con información de AP.
Mira también: