Pular para o conteúdo

Meta está cada vez mais confiando na IA para tomar decisões sobre elementos de experiência do usuário

Como destacado pelo CEO da Meta Mark Zuckerberg em um Visão geral recente do impacto da IAA Meta está cada vez mais dependendo de sistemas movidos a IA para obter mais aspectos de seu desenvolvimento e gerenciamento internos, incluindo codificação, direcionamento de anúncios, avaliação de riscos e muito mais.

E isso em breve poderia se tornar um fator ainda maior, com a meta planejando usar ai por até 90% de todas as suas avaliações de risco no Facebook e Instagramincluindo todo o desenvolvimento de produtos e mudanças de regras.

Conforme relatado por NPR:

““Durante anos, quando a Meta lançou novos recursos para o Instagram, Whatsapp e Facebook, as equipes de revisores avaliaram possíveis riscos: poderia violar a privacidade dos usuários? Poderia causar danos a menores? Poderia piorar a disseminação de conteúdo enganoso ou tóxico? Até recentemente, o que é conhecido dentro da meta como revisões de privacidade e integridade era conduzido quase inteiramente por avaliadores humanos, mas agora, de acordo com documentos internos da empresa obtidos pela NPR, até 90% de todas as avaliações de risco serão automatizadas em breve. ”

O que parece potencialmente problemático, confiando muita confiança nas máquinas para proteger os usuários de alguns dos piores aspectos da interação on -line.

Mas a Meta está confiante de que seus sistemas de IA podem lidar com essas tarefas, incluindo moderação, que ele mostrou em seu Relatório de transparência para o primeiro trimestreque publicou na semana passada.

No início do ano, Meta anunciado Que isso mudaria sua abordagem para violações políticas “menos graves”, com o objetivo de reduzir a quantidade de erros e restrições de execução.

Ao mudar essa abordagem, a Meta diz que, quando descobre que seus sistemas automatizados estão cometendo muitos erros, agora está desativando esses sistemas inteiramente enquanto funciona para melhorá -los, enquanto também é:

““… Livre -se da maioria [content] Demoções e exigindo maior confiança de que o conteúdo viola o resto. E vamos ajustar nossos sistemas para exigir um grau de confiança muito mais alto antes que um conteúdo seja retirado. ”

Portanto, essencialmente, a Meta está refinando seus sistemas de detecção automatizados para garantir que eles não removam as postagens muito apressadamente. E Meta diz que, até agora, esse tem sido um sucesso, resultando em uma redução de 50% nos erros de aplicação de regras.

O que é aparentemente positivo, mas, novamente, uma redução nos erros também pode significar que um conteúdo mais violativo está sendo exibido aos usuários em seus aplicativos.

Que também foi refletido em seus dados de execução:

Como você pode ver neste gráfico, a detecção automatizada de bullying e assédio da Meta no Facebook diminuiu 12% no primeiro trimestre, o que significa que mais desse conteúdo estava passando, devido à mudança de abordagem da Meta.

O que, em um gráfico como esse, não parece um impacto significativo. Mas em números brutos, essa é uma variação de milhões de postagens violentas que a Meta está tomando medidas mais rápidas e milhões de comentários prejudiciais que estão sendo mostrados aos usuários em seus aplicativos como resultado dessa alteração.

O impacto, então, pode ser significativo, mas a Meta está procurando confiar mais nos sistemas de IA para entender e fazer cumprir essas regras no futuro, a fim de maximizar seus esforços nessa frente.

Isso vai funcionar? Bem, ainda não sabemos, e esse é apenas um aspecto de como a Meta está procurando integrar a IA para avaliar e agir suas várias regras e políticas, para proteger melhor seus bilhões de usuários.

Como observado, Zuckerberg também sinalizou isso “Em algum momento dos próximos 12 a 18 meses”, a maioria da base de código em evolução da Meta será Escrito por AI.

Esse é um aplicativo mais lógico dos processos de IA, pois eles podem replicar o código, ingerindo grandes quantidades de dados e, em seguida, fornecendo avaliações com base em correspondências lógicas.

Mas quando você está falando de regras e políticas e coisas que podem ter um grande impacto na maneira como os usuários experimentam cada aplicativo, isso parece um uso mais arriscado das ferramentas de IA.

Em resposta à NPR, Meta disse que As alterações de revisão de risco de produto ainda serão supervisionadas pelos seres humanos e que apenas “decisões de baixo risco” estão sendo automatizadas. Mas, mesmo assim, é uma janela para a potencial expansão futura da IA, onde os sistemas automatizados estão sendo considerados cada vez mais para ditar experiências humanas reais.

Isso é um caminho melhor a seguir nesses elementos?

Talvez acabe sendo assim, mas ainda parece um risco significativo de assumir, quando estamos falando de uma escala tão grande de impactos em potencial, se e quando eles cometem erros.

Fonte