Desentrañando el Misterio: La Lucha de OpenAI por Comprender su Propia Tecnología

OpenAI ha recaudado miles de millones de dólares para desarrollar tecnologías de inteligencia artificial que están transformando industrias y la vida cotidiana. Sin embargo, hay un desafío significativo: la empresa aún lucha por comprender cómo funciona realmente su tecnología.
En la Cumbre Global de la Unión Internacional de Telecomunicaciones AI for Good, celebrada en Ginebra, Suiza, el CEO de OpenAI, Sam Altman, admitió que la compañía no ha resuelto el problema de la interpretabilidad. Según el Observer, Altman reconoció que OpenAI aún no ha logrado rastrear completamente cómo sus grandes modelos de lenguaje (LLM) producen sus resultados, a menudo extraños e inexactos.
Cuando el CEO de The Atlantic, Nicholas Thompson, le preguntó si esta falta de comprensión no debería detener el lanzamiento de modelos más poderosos, Altman ofreció una tibia garantía, afirmando que las IA son «generalmente consideradas seguras y robustas».
Esto resalta un problema crítico en el campo de la IA: los investigadores luchan por explicar el funcionamiento interno de los modelos de IA, que parecen responder a las consultas casi mágicamente. Rastrear estas respuestas hasta los datos de entrenamiento originales sigue siendo un desafío significativo, y OpenAI ha mantenido sus datos de entrenamiento muy protegidos.
Un reciente informe científico histórico, elaborado por un panel de 75 expertos y encargado por el gobierno del Reino Unido, concluyó que los desarrolladores de IA entienden poco sobre el funcionamiento de sus sistemas y que el conocimiento científico en esta área es limitado. El informe sugiere que, aunque las técnicas de explicación e interpretabilidad de modelos pueden mejorar la comprensión, esta investigación aún está en sus primeras etapas.
Otras compañías de IA también están intentando «abrir la caja negra». Por ejemplo, el competidor de OpenAI, Anthropic, ha invertido significativamente en investigación de interpretabilidad, examinando el funcionamiento interno de su último LLM, Claude Sonnet. Anthropic pretende mejorar la seguridad comprendiendo profundamente sus modelos, aunque admite que este trabajo apenas ha comenzado y es costoso explorarlo completamente.
El tema de la interpretabilidad de la IA es crucial, especialmente en medio de los debates sobre la seguridad de la IA y los posibles riesgos de que una inteligencia artificial general se descontrole. Esta preocupación es vista por algunos expertos como una amenaza potencial de extinción para la humanidad.
Recientemente, Altman disolvió el equipo de «Superalineación» de OpenAI, encargado de controlar los sistemas de IA más inteligentes que los humanos, y se nombró a sí mismo líder de un nuevo «comité de seguridad y protección». A pesar de sus garantías, está claro que la compañía enfrenta desafíos significativos para comprender y controlar completamente su tecnología.
Altman enfatizó la importancia de comprender los modelos de IA durante la conferencia, señalando: «Cuanto más podamos entender lo que está sucediendo en estos modelos, mejor». Sin embargo, sus comentarios subrayan el largo camino que tiene por delante OpenAI para lograr una verdadera interpretabilidad y seguridad en sus sistemas de IA.