,

O governo dos EUA emite novas diretrizes sobre o desenvolvimento da IA

Em meio a especulações mais amplas sobre as implicações legais do desenvolvimento da IA e, em particular, o uso de conteúdo protegido por direitos autorais para treinar modelos de IA, o presidente dos EUA, Donald Trump, tem emitiu uma variedade de novos pedidos que visam tornar os EUA o líder no desenvolvimento global da IA e remover restrições em torno dos aspectos -chave.

Presidente Trump tem hoje emitiu uma série de diretivas Relacionado ao desenvolvimento da IA, incluindo:

O pacote combinado de IA formará a base para o esforço da América para liderar a corrida de IA e se tornará o principal fornecedor da tecnologia de IA nos próximos anos.

““É política dos Estados Unidos preservar e estender a liderança americana na IA e diminuir a dependência internacional das tecnologias de IA desenvolvidas por nossos adversários, apoiando a implantação global das tecnologias da IA dos Estados Unidos.

A abordagem atualizada pode ser um golpe para os detentores de direitos autorais, mas Trump diz Que desenvolvedores de IA simplesmente Não se pode esperar que construa um programa de sucesso “Quando todos os artigos, livros ou qualquer outra coisa que você leu ou estudou, você deve pagar”.

Como tal, haverá uma nova proteção para esse uso, dentro de certos modelos de IA, o que reduzirá a capacidade de recurso legal em muitos casos.

Embora sejam os comentários sobre a IA “acordou” que provocou mais discussão.

De acordo com a Ordem da Casa Branca em “Woke AI”:

““A inteligência artificial desempenhará um papel crítico em como os americanos de todas as idades aprendem novas habilidades, consumirão informações e navegarão em suas vidas diárias. Os americanos exigirão resultados confiáveis da IA, mas quando vieses ideológicos ou agendas sociais são incorporados aos modelos de IA, eles podem distorcer a qualidade e a precisão da produção. ”

Isso é verdade, e há evidências que sugerem que vários desenvolvedores de IA já são construindo em um nível de viés com base nas tendências de seus proprietários.

E a ordem da Casa Branca aponta especificamente o viés que pretende abordar:

““Por exemplo, um grande modelo de IA mudou a raça ou o sexo de figuras históricas – incluindo o Papa, os Pais Fundadores e os Vikings – quando solicitados por imagens porque foi treinado para priorizar os requisitos de DEI ao custo de precisão. Outro modelo de IA se recusou a produzir imagens comemorando as realizações dos brancos, mesmo cumprindo o mesmo pedido para pessoas de outras raças. ”

O desafio inerente a isso é que precisa haver um nível de controle sobre tais instruções, a fim de impedir os modelos de IA saindo dos trilhos, pois os usuários procuram fazê -los dizer coisas mais controversas. Mas, ao mesmo tempo, qualquer ponderação tornará seus resultados menos objetivos, o que leva a problemas em potencial à medida que as pessoas se tornam mais dependentes dessas ferramentas para obter informações.

Xai tem sido Procurando corrigir isso em suas ferramentasusando as próprias postagens de Elon Musk como um ponto de referência para verificar o alinhamento factual. Obviamente, o que não é o caminho a percorrer, usando uma única pessoa como bússola moral, mas pode haver uma maneira de construir a abordagem do estilo de notas da comunidade de X para facilitar uma visão mais representativa e precisa de todos os tópicos.

Ainda não temos uma resposta real e, com a web inundada com as tomadas divisivas e partidárias, e essas informações sendo usadas como entrada de referência para ferramentas de IA, é difícil ver como podemos chegar lá sem um nível de suavização nos resultados.

De fato, são os insumos a esse respeito que continuam sendo o problema. Os modelos de IA dependem de bancos de dados em larga escala, principalmente com base no que podem acessar on-line, mas esses conjuntos de dados provavelmente não são representações precisas de opinião ou inclinação geral.

Por exemplo, o Twitter/X notou repetidamente que Apenas cerca de 20% de seus usuários postaram qualquer coisacom a grande maioria das pessoas usando o aplicativo no modo “somente leitura”. É provável que também seja o mesmo para outras plataformas sociais, e com apenas um quinto dos usuários contribuindo ativamente para conversas, isso significa que estamos apenas recebendo uma pequena amostra, em grande parte as pessoas mais divisivas e argumentativas, que estão informando como a IA chatbots “pensa” sobre os principais tópicos.

Obviamente, os bots da IA também podem acessar informações factuais de fontes adicionais, e isso deve solidificar suas respostas, principalmente em consultas técnicas. Mas quando se trata de questões de debate político e/ou opinião divisiva, isso pode levar a questões com informações erradas e respostas enganosas com base nessa contribuição.

O que poderia ver esses modelos se enquadrar no território “acordado”, e será interessante ver como a Casa Branca planeja testar “Wokeness” nos modelos de IA, como um meio de determinar a compra de IA.

Embora qualquer teste desse tipo possa acabar beneficiando os modelos Xai de Elon Musk, principalmente porque Musk provavelmente tem a palavra interna sobre como as políticas do governo foram desenvolvidas e, portanto, o que eles procurarão em tais testes.

Há uma série de considerações interessantes nessas novas ordens, que podem ter uma série de implicações, principalmente à medida que o uso da IA se expande para mais elementos.

E com a IA definida para desempenhar um papel importante na interação da mídia social em particular, vale a pena notar como essas regras afetam assim e se relacionam com o uso de IA para moderação, criação, etc.

Fonte