Início Notícias Está provado que a IA pode responder aos piores pedidos … e...

Está provado que a IA pode responder aos piores pedidos … e nada os impede

11
0

A web nunca esquece nada, ai também. Qualquer coisa que eles ingeriram durante o aprendizado podem ser lançados, mesmo o que é mais ilegal, desde que saibam como conversar com eles. Explicações.

Já sabíamos que os modelos deIAIA provavelmente destacariam a desinformação, para explicar como alcançar coisas ilegais ou eticamente questionáveis, tudo com calma. Os editores reagiram, no entanto, adicionando segurança, mas, apesar disso, existem falhas.

É isso que um novo estudo realizado por pesquisadores de IA da Universidade de Ben Gurév de Negev, em Israel, acaba de ser demonstrado. Ela confirma que os modelos de idiomas mais comuns (LLM) podem ser facilmente manipulados e gerar informações prejudiciais e até fornecer explicações ilegais. A obtenção de informações muito questionáveis ​​da ChatBots não é nova.

Desde o início de seu uso maciço, eles foram empurrados para suas entrincheiramentos e forneceram informações sobre elementos que normalmente estão apenas na Web Dark. Isso foi, por exemplo, o caso da receita de Napalm, ou de técnicas de hackers.

Incontrolável?

Foi a partir desse momento que as empresas editoriais começaram a fazer bordas de seus chatbots de filtro. Então houve então a aparência dos métodos para desviar o LLM via Pedidos inteligentes para alcançar os mesmos resultados. Novamente, os editores fortaleceram a segurança para evitar isso jailbreaksjailbreaks. E, no entanto, é sobre o mesmo princípio que a equipe de pesquisa desenvolveu um tipo de solicitação universal que funciona com a maioria dos LLM. Ela foi capaz de obter informações detalhadas sobre o clareamento dedinheirodinheiroa ofensa iniciada, o design de uma bomba e muitas outras manobras fraudulentas ou prejudiciais.

Mas cuidado! O estudo inicialmente se concentrou no que é chamado de “escuro LLM”, modelos intencionalmente projetados com salvaguardasalvaguarda Deputado para responder a missões específicas. Segundo os pesquisadores, eles agora representam uma ameaça crescente, pois é possível obter respostas sobre tudo o que é mais legal e eticamente. O problema é que esses chatbots de alfaiate são agora Legion e que são baseados cada vez mais em modelos de código aberto sem nenhum controle.

Voltar impossível

Mas os pesquisadores observaram que mesmo os tradicionais chatbots públicos como ChatgptChatgptpode facilmente ser manipulado da mesma maneira, apesar dos esforços dos editores para forçá -los. Em conclusão de suas investigações, os pesquisadores finalmente consideraram que atualmente é impossível impedir que o LLM opere esse tipo de informação se foram assimilados durante o treinamento. Eles definitivamente fazem parte do banco de dados.

A única maneira de bloqueá -los seria baseada em filtros rigorosos que os editores obviamente não conseguiram configurar. Com esse tipo de confirmação, o pior agora é provável quando GoogleGoogle Acabou de mudar seu mecanismo de pesquisa para que agora seja assistido por sua IA. E podemos ainda mais preocupação com a continuação, pois sob o pretexto de oferecer mais liberdade, os tenores do setor decidiram desbridar sua IA após a chegada do governo de Trump nos controles dos Estados Unidos.

Fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui