A Meta está pronta para estar sob o escrutínio regulatório mais uma vez, depois de relatos de que não abordou repetidamente as preocupações de segurança com seus projetos de IA e VR.
Primeiro, na IA, e em suas ferramentas de engajamento de IA em evolução. Nas últimas semanas, a Meta foi acusada de permitir que seus chatbots da AI Envolva -se em conversas inadequadas com menorese fornecer informações médicas enganosas, pois busca maximizar a aceitação de suas ferramentas de chatbot.
Um Investigação da Reuters Meta -documentação interna descoberta que essencialmente permitiria que essas interações ocorram, sem intervenção. A Meta confirmou que essa orientação existia em sua documentação, mas desde então atualizou as regras para abordar esses elementos.
Embora isso não seja suficiente para pelo menos um senador dos EUA, que pediu a Meta para proibir o uso de seus chatbots da AI por menores.
Conforme relatado por NBC News:
““O senador Edward Markey disse que [Meta] poderia ter evitado a reação se ele tivesse ouvido seu aviso há dois anos. Em setembro de 2023, Markey escreveu em Uma carta para Zuckerberg O fato de permitir que os adolescentes usassem os chatbots da IA ’sobrecarregassem’ os problemas existentes nas mídias sociais e representassem muitos riscos. Ele pediu à empresa que pause o lançamento de AI Chatbots até que tenha uma compreensão do impacto nos menores. ”
O que, é claro, é uma preocupação que muitos levantaram.
A maior preocupação com o desenvolvimento acelerado da IA e outras tecnologias interativas é que não entendemos completamente quais podem ser os impactos de usá -los. E como vimos nas mídias sociais, que muitas jurisdições estão tentando restringir a adolescentes mais velhoso impacto de tal no público mais jovem pode ser significativo, e seria melhor mitigar esse dano antes do tempo, em vez de tentar abordá -lo retrospecto.
Mas o progresso geralmente ganha em tais considerações e, com empresas de tecnologia dos EUA, apontando para o fato de que a China e a Rússia também estão desenvolvendo IA, as autoridades dos EUA parecem improváveis de implementar restrições significativas ao desenvolvimento ou uso da IA neste momento.
Que também leva a outra preocupação sendo nivelada na Meta.
De acordo com um novo relatório de The Washington PostA Meta ignorou repetidamente e/ou procurou suprimir relatórios de crianças serem propostas sexualmente em seus ambientes de RV, pois continua a expandir sua experiência social de VR.
O relatório sugere que a meta se envolveu em um esforço conjunto para enterrar esses incidentes, embora a meta tenha respondido observando que é aprovado 180 estudos diferentes em Segurança e bem-estar juvenil em suas experiências de próximo nível.
Não é a primeira vez que as preocupações são levantadas sobre os impactos em saúde mental da RV, com o ambiente digital mais imersivo provavelmente ter um impacto ainda mais significativo na percepção do usuário do que os aplicativos sociais.
Vários Os usuários da Horizon VR relataram incidentes de agressão sexual, mesmo Estupro virtualdentro do ambiente VR. Em resposta, a Meta adicionou novos elementos de segurança, como limites pessoais Para restringir o contato indesejado, embora, mesmo com ferramentas de segurança adicionais em vigor, é impossível para a meta combater ou explicar os impactos completos dessa fase.
E ao mesmo tempo, a meta também reduziu os limites de acesso à idade dos mundos da horizonte 13 anosentão 10 no ano passado.
Parece uma preocupação, certo? Que entre meta -forçado a implementar novas soluções de segurança para proteger os usuários, também está reduzindo as barreiras etárias para o acesso ao mesmo.
Obviamente, a Meta pode muito bem estar conduzindo outros estudos de segurança, como observa, e esses podem voltar com mais informações que ajudarão a abordar preocupações de segurança como essa, antes de uma aceitação mais ampla de suas ferramentas de VR. Mas há uma sensação de que a Meta está disposta a avançar com seus projetos com progresso como luz orientadora, e não como segurança. O que, novamente, é o que vimos nas mídias sociais inicialmente.
Meta foi repetidamente transportado perante o Congresso Para responder a perguntas sobre a segurança do Instagram e do Facebook para usuários adolescentes, e o que ele sabe, ou sabia, sobre possíveis danos entre o público mais jovem. A Meta há muito tempo negou qualquer ligação direta entre o uso da mídia social e a saúde mental adolescente, embora vários relatórios de terceiros tenham encontrado conexões claras nessa frente, que é o que levou aos esforços mais recentes para impedir que os jovens adolescentes acessem aplicativos sociais.
Mas, por tudo isso, a Meta’s permaneceu firme em sua abordagem e ao fornecer acesso ao maior número possível de usuários.
É isso que pode ser mais preocupante aqui, que a Meta está disposta a ignorar evidências externas se isso pudesse impedir seu próprio crescimento de negócios.
Assim, você toma meta em sua palavra e confia que está conduzindo experimentos de segurança para garantir que seus projetos não tenham um impacto negativo nos adolescentes, ou você pressiona a meta para enfrentar questionamentos mais difíceis, com base em estudos externos e evidências em contrário.
A Meta sustenta que está fazendo o trabalho, mas com tanta coisa em jogo, vale a pena levantar essas questões.





