Los legisladores estatales saltan a los chatbots de IA con ansiedad por la protección de los niños
5 minutos de lectura
Cuando su hijo de 14 años se quitó la vida después de una conversación con chatbots de detectives artificiales, Megan García convirtió su dolor en acción.
El año pasado, la madre de Florida demandó al personaje I
García se queja en un caso federal de que la plataforma Chatbotts ha dañado la salud mental de su hijo Seli Setzer y Menlo Park, la salud mental de California, cuando expresó suicidio sobre estos personajes virtuales, no pudo informarle.
Ahora García está apoyando a la ley estatal cuyo objetivo es proteger a los jóvenes de los chatbots «compañeros», dijo, «diseñado para participar en conversaciones románticas y sexuales inadecuadas de usuarios débiles» y «alentarlos a sí mismo».
«Con el tiempo, necesitaremos una estructura regulatoria amplia para resolver todo el daño, pero en este momento estoy agradecido de que California esté en la cima de la creación del campo», dijo García en una conferencia de prensa el martes antes de escuchar el proyecto de ley para revisar el proyecto de ley.
Resistencia para prevenir el suicidio y consultar la crisis
Si usted o alguien que conoce está luchando con el pensamiento suicidio, obtenga ayuda de un profesional y llame al 9-8-8. La primera crisis de salud mental de tres dígitos en los Estados Unidos conectará la línea directa de 988 Calchers con consultores capacitados de salud mental. El texto del «hogar» en 741741 en los Estados Unidos y Canadá para llegar a la línea de texto.
A medida que las empresas avanzan a los chatbots, los padres, los legisladores y los grupos de defensa infantil están preocupados de que no haya suficiente protección para proteger a los jóvenes del peligro potencial de la tecnología.
Para resolver el problema, los legisladores estatales presentaron un proyecto de ley para que los operadores de la plataforma Chattbot para recordar a los usuarios se necesiten al menos tres horas que los personajes virtuales no sean humanos. Se deben tomar otros pasos en las plataformas, como ideales de suicidio, suicidio o usuarios para resolver el flujo propio. Estos incluyen mostrar la resistencia al suicidio de los usuarios.
Según el Proyecto de Ley 243 del Senado, los operadores de estas plataformas también informarán el número de suicidio al suicidio con cualquier usuario junto con otros requisitos.
La Ley, que ha despejado el Comité Judicial del Senado, está tratando de lidiar con los riesgos potenciales elevados por la inteligencia artificial, solo una forma en que los chatbots han aumentado en popularidad entre los jóvenes. Más de 20 millones de personas usan el personaje cada mes y los usuarios han creado millones de basureros.
Los legisladores dicen que el proyecto de ley puede ser un modelo nacional para la protección de la IA, y algunos partidarios del proyecto de ley incluyen el grupo de defensa de los niños Common Sense Media y la Academia Americana de Pediatría, California.
«La innovación técnica es muy importante, pero los conejillos de indias no pueden usarse para probar los productos de nuestros niños. Los socios son más», dijo Sen Steve Padilla (D-Chula Vista), uno de los abogados que lanzó este proyecto de ley en la ceremonia actual de García.
Sin embargo, la industria de la tecnología y los grupos empresariales, incluida la Cámara de Comercio de Technnet y la California, se han opuesto a los abogados a la ley de que impondría requisitos innecesarios y comprensibles en el propósito general de los modelos de IA. «Un grupo de derecho digital sin fines de lucro basado en San Francisco ha dicho que la ley plantea el problema de la Primera Enmienda.
El EFF escribió a los legisladores: «El gobierno probablemente esté interesado en prevenir el suicidio. Pero este control no es limitado o preciso».
La Primera Enmienda sobre el caso de García expresó preocupación. Sus abogados pidieron a un tribunal federal que desestimara el caso en enero, señalando que una búsqueda de padres violaría los derechos constitucionales de libertad de expresión de los usuarios.
El portavoz del personaje, Chelsea Harrison, dijo en un correo electrónico que la compañía se tomó en serio la protección del usuario y su objetivo es «un lugar interesante y seguro».
Dijo en un comunicado: «Siempre estamos trabajando para lograr el equilibrio, ya que hay muchas compañías que usan IA en toda la industria.
Cita nuevas características de seguridad con una herramienta que permite a los padres ver cuánto tiempo pasan sus adolescentes en la plataforma. La compañía también ha citado sus esfuerzos para moderar el contenido dañino potencial e instruir el suicidio nacional y la crisis de la crisis de los usuarios específicos.
Las compañías de redes sociales, incluido el enfoque principal de Snap y Facebook, han publicado AI Chatboats en sus aplicaciones para competir con Operai Chatzpt, que la gente usa para crear texto e imágenes. Algunos usuarios han usado el chatzp para obtener consejos o trabajos completos, algunos también han entrado en estos chatbots para desempeñar el papel de novio o amigo virtual.
Los legisladores también están saltando sobre cómo definir el «chatbot complementario». Algunas aplicaciones como la réplica y el marketing de Kindroid sus servicios como compañeros de IA o amigos digitales. La factura no se aplica a los chatbots diseñados para el servicio al cliente.
Padilla dijo durante una conferencia de prensa que la ley se centró en el diseño del producto que era «inherentemente peligroso» y que estaba destinado a proteger a los menores.