Incluso si los chatbots pasan con éxito la prueba de Turing, tendrán que renunciar al juego si están operando en California. Un nuevo proyecto de ley propuesto por el senador de California Steve Padilla requeriría chatbots que interactúen con los niños para ofrecer recordatorios ocasionales de que, de hecho, son una máquina y no una persona real.
El proyecto de ley, SB 243, se presentó como parte de un esfuerzo por regular las salvaguardas que las empresas que operan los chatbots deben establecer para proteger a los niños. Entre los requisitos que establecería el proyecto de ley: prohibiría a las empresas de “proporcionar recompensas” a los usuarios para aumentar el compromiso o el uso, requerir que las empresas informen al Departamento de Servicios de Atención de la Salud del estado con qué frecuencia muestran signos de ideación suicida y proporcionan periódicos Los recordatorios de que los chatbots son generados por IA y no humanos.
Ese último bit es particularmente relacionado con el momento actual, ya que se ha demostrado que los niños son bastante vulnerables a estos sistemas. El año pasado, un niño de 14 años se quitó la vida trágicamente después de desarrollar una conexión emocional con un chatbot hecho accesible por el personaje. AI, un servicio para crear chatbots modelados después de diferentes personajes de la cultura pop. Los padres del niño han demandado al carácter.
Los investigadores de la Universidad de Cambridge han descubierto que los niños tienen más probabilidades que los adultos de ver los chatbots de IA como confiables, incluso viéndolos como cuasi-humanos. Eso puede poner a los niños con un riesgo significativo cuando los chatbots responden a sus indicaciones sin ningún tipo de protección en su lugar. Es cómo, por ejemplo, los investigadores pudieron lograr que la IA incorporada de Snapchat proporcionara instrucciones a un hipotético usuario de 13 años sobre cómo mentirle a sus padres para reunirse con una niña de 30 años y perder su virginidad.
Hay beneficios potenciales para los niños que se sienten libres de compartir sus sentimientos con un bot si les permite expresarse en un lugar donde se sienten seguros. Pero el riesgo de aislamiento es real. Pequeños recordatorios de que no hay una persona en el otro extremo de su conversación puede ser útil, e intervenir en el ciclo de la adicción de que las plataformas tecnológicas son tan expertas en atrapar a los niños a través de visitas repetidas de dopamina es un buen punto de partida. No proporcionar esos tipos de intervenciones a medida que las redes sociales comenzaron a asumir es parte de cómo llegamos aquí en primer lugar.
Pero estas protecciones no abordarán los problemas raíz que conducen a los niños que buscan el apoyo de los chatbots en primer lugar. Existe una grave falta de recursos disponibles para facilitar las relaciones de la vida real para los niños. Las aulas están sobrecargadas y subfinanciadas, los programas después de la escuela están en declive, los “terceros lugares” continúan desapareciendo, y hay una escasez de psicólogos infantiles para ayudar a los niños a procesar todo lo que están lidiando. Es bueno recordarles a los niños que los chatbots no son reales, pero sería mejor ponerlos en situaciones en las que no sienten que necesitan hablar con los bots en primer lugar.