A empresa de IA Personagem.Ai está atualizando suas novas diretrizes e recursos de segurança para menores, anunciou a empresa na quinta-feira. Haverá agora um modelo separado que suporta mensagens sobre as experiências dos adolescentes com seus chatbots, com “limites de resposta mais conservadores” para conteúdo romântico e sexual.
Se você já ouviu falar de uma empresa de IA, provavelmente é por causa de um tribunal federal recente movido pela mãe da Flórida, Megan Garcia, alegando que Character.Ai é responsável pelo suicídio de seu filho de 14 anos. Character.Ai é uma plataforma online que permite aos seus usuários criar e conversar com vários chatbots de IA. Existem chatbots para atuar como tutores, planejadores de viagens e terapeutas. Outros imitam personagens da cultura pop, como super-heróis e personagens de Game of Thrones ou Grey’s Anatomy.
As novas medidas de segurança são generalizadas “em quase todos os aspectos da nossa plataforma”, disse a empresa ele disse em um comunicado. Character.Ai também está introduzindo controles parentais, alertas de tempo de tela e isenções de responsabilidade mais fortes para lembrar aos usuários que os chatbots não são pessoas reais e, no caso de chatbots se passando por terapeutas, não são profissionais que possam fornecer conselhos. A empresa disse que “em certos casos”, quando detecta usuários fazendo referência a automutilação, ela os direciona para Linha de Vida Nacional para Prevenção do Suicídio. O controle dos pais estará disponível no próximo ano e parece que as novas isenções de responsabilidade estão começando a ser implementadas agora. É importante notar que, embora os usuários devam inserir sua data de nascimento durante o registro, o Character.Ai não exige nenhuma verificação adicional de idade.
O processo de Garcia não é o único que levanta essas preocupações sobre a segurança de crianças e adolescentes na plataforma. Na segunda-feira, 9 de dezembro, duas famílias do Texas entraram com uma ação semelhante contra a Character.Ai e o Google, uma das plataformas de IA. investidores anterioresalegando negligência e práticas comerciais enganosas que tornam o Character.Ai um “produto defeituoso e mortal”.
Muitas plataformas e serviços online estão fortalecendo a proteção de suas crianças e adolescentes. Roblox, um popular serviço de jogos voltado para crianças, implementou uma série de limites de idade e tempo de tela após a aplicação da lei e notícias de supostos predadores usando o serviço para atingir crianças. O Instagram está atualmente em processo de troca de todas as contas pertencentes a adolescentes com 17 anos ou menos novas contas para adolescentesque limitam automaticamente quem pode enviar mensagens a eles e têm regras de conteúdo mais rígidas. Enquanto o médico geral da América, Dr. Vivek Murthy foi defender rótulos de advertência Empresas de inteligência artificial como estas, que indicam os perigos potenciais das redes sociais para crianças e adolescentes, representam um novo potencial de danos.