Suchir Balaji, un exingeniero de OpenAI que ayudó a entrenar los sistemas de inteligencia artificial detrás de ChatGPT pero que más tarde afirmó creer que esas prácticas violaban la ley de derechos de autor, ha muerto, según sus padres y funcionarios de San Francisco. Tenía 26 años.
Balaji trabajó en OpenAI durante casi cuatro años antes de renunciar en agosto. Era muy apreciado por sus colegas en la empresa, con sede en San Francisco, donde un cofundador esta semana lo describió como uno de los integrantes más fuertes del equipo de trabajo de OpenAI y esencial para el desarrollo de algunos de sus productos.
“Estamos devastados al enterarnos de esta increíblemente triste noticia y nuestros corazones están con los seres queridos de Suchir durante este difícil momento”, reza un comunicado de OpenAI.
Balaji fue hallado sin vida en su departamento en San Francisco el 26 de noviembre en lo que la policía dijo que “parecía ser un suicidio”. Agregó que “durante la investigación inicial no se encontraron evidencias de haya sido asesinado”. Los forenses confirmaron que la causa de su muerte fue suicidio.
Sus padres, Poornima Ramarao y Balaji Ramamurthy, dijeron que aún buscan respuestas, y describieron a su hijo como un “joven feliz, inteligente y valiente” que amaba hacer senderismo y recientemente había regresado de un viaje con amigos.
Balaji creció en el área de la Bahía de San Francisco y llegó por primera vez al incipiente laboratorio de investigación de IA para una realizar una pasantía de verano en 2018 cuando estudiaba Ciencias de la Computación en la Universidad de California, Berkeley. Regresó unos años después para trabajar en OpenAI, donde uno de sus primeros proyectos, llamado WebGPT, ayudó a allanar el camino para la creación de ChatGPT.
“Las contribuciones de Suchir a este proyecto fueron esenciales, y no habría tenido éxito sin él”, dijo el cofundador de OpenAI, John Schulman, en una publicación en redes sociales en memoria de Balaji. Schulman, quien reclutó a Balaji para su equipo, dijo que lo que lo hacía un ingeniero y científico excepcional era su atención al detalle y su capacidad para notar errores sutiles o lógicos.
“Tenía un talento para encontrar soluciones simples y escribir código elegante que funcionaba”, escribió Schulman. “Pensaba en los detalles de las cosas de manera cuidadosa y rigurosa”.
Balaji posteriormente se dedicó a organizar los enormes conjuntos de datos de escritos en línea y otros medios utilizados para entrenar a GPT-4, la cuarta generación del modelo de lenguaje de gran tamaño insignia de OpenAI, que sirvió como base para el famoso chatbot de la compañía. Fue ese trabajo el que eventualmente llevó a Balaji a cuestionar la tecnología que ayudó a construir, especialmente después que periódicos, novelistas y otros comenzaran a demandar a OpenAI y otras compañías de IA por infracción de derechos de autor.
En primera instancia, le planteó sus inquietudes al diario The New York Times, el cual las incluyó en un perfil de Balaji publicado en octubre.
Posteriormente, le dijo a The Associated Press que intentaría “testificar” en los casos de infracción de derechos de autor más fuertes y consideró una demanda presentada por The New York Times el año pasado como la “más seria”. Los abogados de The New York Times lo nombraron en un archivo judicial del 18 de noviembre como alguien que podría tener “documentos únicos y relevantes” que respalden las acusaciones de infracción intencionada de derechos de autor de OpenAI.
Sus registros también fueron solicitados por abogados en un caso separado presentado por autores de libros, entre ellos la comediante Sarah Silverman, según un archivo judicial.
“No se siente bien estar entrenando con los datos de las personas y luego competir con ellos en el mercado”, le dijo Balaji a la AP a finales de octubre. “No creo que uno deba tener el poder de hacer eso. No creo que uno pueda hacerlo legalmente”.
Balaji le dijo a la AP que gradualmente se había desilusionado más con OpenAI, especialmente después de la agitación interna que llevó a su junta directiva a despedir y luego volver a contratar al director general Sam Altman el año pasado. Balaji dijo que estaba sumamente preocupado por cómo se estaban lanzando sus productos comerciales, incluida su propensión a emitir información falsa conocida como “alucinaciones”.
Pero entre los “múltiples problemas” que le preocupaban, dijo que se estaba centrando en los derechos de autor como el único sobre el cual era “realmente posible hacer algo”.
Balaji reconoció que su opinión era impopular dentro de la comunidad de investigación de IA, que está acostumbrada a extraer datos de internet, pero dijo “tendrán que cambiar y es cuestión de tiempo”.
No había sido interrogado y no está claro hasta qué punto sus revelaciones serán admitidas como evidencia en algún caso legal después de su muerte. También publicó una entrada de blog personal con sus opiniones sobre el tema.
Schulman, quien renunció a OpenAI en agosto, dijo que él y Balaji casualmente dejaron la compañía el mismo día y celebraron esa noche con colegas con una cena y bebidas en un bar en San Francisco. Otro de los mentores de Balaji, el cofundador y científico jefe Ilya Sutskever, había dejado OpenAI varios meses antes, lo que Balaji vio como otro impulso para irse.
Schulman dijo que Balaji le había hablado a principios de este año de sus planes de dejar OpenAI y que Balaji no creía que fuera posible crear una inteligencia artificial superior a la humana, conocida como inteligencia artificial general “en el corto plazo, como parecía creer el resto de la compañía”. El joven ingeniero expresó interés en cursar un doctorado y explorar “algunas ideas fuera de lo común sobre cómo construir inteligencia”, dijo Schulman.
La familia de Balaji dijo que se está planeando llevar a cabo un memorial más adelante este mes en el Centro Comunitario de India en Milpitas, California, no muy lejos de su ciudad natal, Cupertino.
___
The Associated Press y OpenAI tienen un acuerdo de licencia y tecnología que permite a OpenAI acceder a parte de los archivos de texto de la AP.
___
Esta historia fue traducida del inglés por un editor de la AP con la ayuda de una herramienta de inteligencia artificial generativa. Contiene referencias al suicidio.