La Inteligencia Artificial (IA) está experimentando un rápido desarrollo, y empresas como OpenAI están compitiendo por crear sistemas cada vez más potentes. Un grupo de exempleados y empleados actuales de OpenAI han expresado su preocupación por lo que describen como una cultura de imprudencia y secretismo en la empresa. Según reporta Kevin Rose del New York Times, este grupo afirma que OpenAI no está haciendo lo suficiente para prevenir que sus sistemas de IA se vuelvan peligrosos.
Estas preocupaciones no son infundadas. Eliezer Yudkowsky, teórico de la decisión, advierte que "probablemente la Inteligencia Artificial superinteligente nos matará a todos". En su charla en TED2023, Yudkowsky plantea la cuestión de si es posible construir mentes artificiales potentes que sean obedientes e incluso benevolentes. Enfatiza la necesidad de actuar de inmediato para asegurarnos de que los sistemas de IA más inteligentes que los humanos no nos conduzcan a la extinción.
Las recientes salidas de destacados investigadores de IA en OpenAI, como Ilya Sutskever y Jan Leike, han aumentado aún más las preocupaciones sobre la seguridad en la empresa. Leike, quien lideraba el equipo encargado de gestionar los riesgos de los modelos de IA potentes, declaró en su partida que "la cultura y los procesos de seguridad habían pasado a un segundo plano frente a productos llamativos".
Ante estos desafíos, es crucial que las empresas de IA prioricen la seguridad y la transparencia en el desarrollo de esta poderosa tecnología. Los exempleados y empleados actuales de OpenAI piden en una carta abierta que se establezca una mayor transparencia y protecciones para los denunciantes, así como el fin del uso de acuerdos de no desacreditación y no divulgación. Estas medidas permitirían a los empleados discutir libremente los riesgos y posibles daños de la IA, sin temor a represalias.
Además de la autorregulación de las empresas, es necesario que los legisladores regulen la industria para garantizar una estructura de gobernanza transparente y democráticamente responsable. Un gran dilema. Como señala Yudkowsky, "la cuestión no es si la IA superinteligente llegará, sino si seremos lo suficientemente sabios para sobrevivir a su llegada".
Las advertencias de los exempleados y empleados actuales de OpenAI, junto con las preocupaciones expresadas por expertos como Eliezer Yudkowsky, subrayan la importancia de desarrollar una Inteligencia Artificial segura y transparente.
Solo mediante la colaboración entre empresas, legisladores y la sociedad en general podremos asegurarnos de que la IA se convierta en una herramienta beneficiosa para la humanidad, en lugar de una amenaza existencial.