La compañía estadounidense OpenAI anunció este 2 de septiembre que introducirá un mecanismo de control parental para su herramienta de inteligencia artificial ChatGPT, después de que padres estadounidenses acusaran al bot conversacional de alentar a su hijo a suicidarse.
"En el próximo mes, los padres podrán vincular su cuenta con la de su hijo adolescente" y "controlar cómo ChatGPT responde a su hijo adolescente con reglas de comportamiento del modelo", dijo OpenAI en una publicación de blog.
Según la compañía, también será posible que los padres sean alertados si se detecta una "angustia aguda" en las conversaciones de sus hijos. Podrán por otra parte controlar la configuración de la cuenta.
Instrucciones detalladas para suicidarse
Este anuncio sigue a una publicación de blog anterior, publicada a fines de agosto, en la que OpenAI había indicado que estaba preparando un mecanismo de control parental. El día anterior, los padres de un adolescente californiano de 16 años que se suicidó habían presentado una denuncia contra la empresa, acusando a ChatGPT de proporcionar a su hijo instrucciones detalladas para acabar con su vida y alentar su acción.
"Continuamos mejorando la forma en que nuestros modelos reconocen y responden a los signos de angustia mental y emocional", agregó la compañía en su publicación de blog el martes.
OpenAI dijo que estaba tomando más medidas, que se esperan en los próximos 120 días. La compañía redirigirá algunas "conversaciones sensibles" hacia modelos de razonamiento como GPT-5-thinking, que es más avanzado. "Los modelos de razonamiento siguen y aplican instrucciones de seguridad de manera más sistemática", precisó el grupo estadounidense.
Compartir esta nota