El gobernador de California, Gavin Newsom, firmó el lunes la primera ley del país que regula los chatbots de inteligencia artificial, desafiando el llamado de la Casa Blanca a mantener un enfoque de no intervención. La medida exige que los operadores de chatbots implementen salvaguardas para las interacciones con los usuarios y permite presentar demandas si el incumplimiento causa daños, explicó el senador estatal Steve Padilla, promotor del proyecto de ley.
Los usuarios en línea recurren cada vez más a chatbots impulsados por inteligencia artificial en busca de información confiable, a pesar de la desinformación generalizada.
El gobernador de California, Gavin Newsom, firmó el lunes una ley pionera que regula los chatbots de inteligencia artificial, desafiando la presión de la Casa Blanca para mantener esa tecnología sin control.
“Hemos visto ejemplos realmente horribles y trágicos de jóvenes perjudicados por tecnologías no reguladas, y no permaneceremos de brazos cruzados mientras las empresas operan sin límites ni rendición de cuentas”, declaró Newsom tras firmar la ley.
La nueva legislación exige que los operadores de chatbots implementen salvaguardas “críticas” en sus interacciones con los usuarios y establece un mecanismo para que las personas presenten demandas si la falta de esas medidas conduce a tragedias, según explicó el senador estatal Steve Padilla, demócrata y autor del proyecto.
La ley se produce tras revelaciones sobre suicidios de adolescentes que usaron chatbots antes de quitarse la vida.
“La industria tecnológica tiene incentivos para captar la atención de los jóvenes y retenerla, a costa de sus relaciones en el mundo real”, señaló Padilla antes de la votación en el senado estatal.
Padilla se refirió a suicidios recientes de adolescentes, incluido el del hijo de 14 años de la madre floridana Megan Garcia.
El hijo de Megan Garcia, Sewell, se había enamorado de un chatbot inspirado en Game of Thrones en la plataforma Character.AI, que permite a los usuarios —muchos de ellos jóvenes— interactuar con personajes queridos como si fueran amigos o parejas.
Cuando Sewell comenzó a tener pensamientos suicidas, el chatbot lo instó a “volver a casa”.
Segundos después, Sewell se disparó con el arma de su padre, según la demanda que Garcia presentó contra Character.AI.
“Hoy, California ha garantizado que un chatbot de compañía no pueda hablar con un niño o una persona vulnerable sobre el suicidio, ni ayudar a alguien a planificar su propia muerte”, dijo Garcia sobre la nueva ley.
“Por fin existe una ley que obliga a las empresas a proteger a los usuarios que expresan ideas suicidas a los chatbots.”
En Estados Unidos no existen normas nacionales destinadas a limitar los riesgos de la inteligencia artificial, y la Casa Blanca busca impedir que los estados promulguen sus propias regulaciones.
Con AFP
Compartir esta nota