Início Tecnologia Para não estar mais “saqueando seus modelos de IA”, o OpenAI fortalece...

Para não estar mais “saqueando seus modelos de IA”, o OpenAI fortalece sua segurança

8
0

O Openai teria tomado novas medidas para evitar qualquer roubo de propriedade intelectual: contratação de ex -inteligência ou funcionários militares, partição de informações e projetos sensíveis, fortalecimento do controle de certos funcionários …

Contra tentativas de espionagem e voos de propriedade intelectual, o Openai, a start-up por trás do ChatGPT, teria fortalecido sua segurança. Se a empresa americana já tivesse adotado novas medidas no ano passado, seu nível de segurança teria montado um entalhe, especialmente após o lançamento da ferramenta chinesa Deepseek no início do ano, relata o Times financeiros Nesta terça -feira, 8 de julho.

Esse código aberto do concorrente do ChatGPT, a um custo menor, preocupou os gigantes americanos do setor e, em particular, o Openai. Em 29 de janeiro, o último acusou Deepseek de ter copiado indevidamente seus modelos de IA, usando uma técnica conhecida como “destilação”, para desenvolver um sistema concorrente.

Este episódio ” Eu encorajei o Openai a ser muito mais rigoroso “Disse uma pessoa próxima à sua equipe de segurança. Segundo a fonte da mídia econômica, a empresa teria fortalecido drasticamente sua equipe dedicada à segurança e à segurança cibernética. Paralelamente, ela teria endurecido suas medidas de segurança.

Internamente, “a situação se tornou muito tensa”

Concretamente, informações sensíveis são mais particionadas e os funcionários mais controlados. Informações relacionadas a algoritmos e novos produtos seriam acessíveis a certos funcionários: o número deles tendo acesso a “ Novos algoritmos nas aulas de desenvolvimento Foi significativamente reduzido.

“” A situação ficou muito tensa: ou tínhamos tudo ou não tínhamos nada “Disse uma das fontes da mídia.” ” Mais e mais pessoas são informadas sobre o que devem saber, sem serem informadas sobre o que os outros fazem Ela continua. Segundo nossos colegas americanos, o OpenAI imporia ambientes isolados e particionados a determinadas equipes, com sistemas de computador mantidos offline e separados de outras redes. O acesso a determinados escritórios estaria sob controle biométrico, com os funcionários forçados a digitalizar suas impressões digitais para entrar em determinados salas.

Dois especialistas militares contratados

A segurança de seus data centers também foi reforçada, em particular através do controle de funcionários ou candidatos a ofertas de emprego. A Openai também contratou especialistas militares ou de inteligência, como Dane Stuckey, em outubro passado. O novo gerente de segurança da informação é uma ex -empresa de vigilância da Palantir. Paul Nakasone, general do exército aposentado dos EUA, também foi nomeado para o Conselho de Administração da Openai. Sua missão: supervisionar suas defesas contra ameaças de segurança cibernética.

Todas essas medidas estão longe de ser uma surpresa. Por quase dois anos, o Vale do Silício foi alertado regularmente sobre as tentativas de espionar países estrangeiros e regularmente incentivou a fortalecer sua segurança cibernética e a proteção de suas informações confidenciais ou estratégicas. No final de 2023, os chefes dos “Five Eyes” explicaram, por exemplo, tendo se encontrado “em particular” cerca de quinze líderes do Vale do Silício para evitá -los ” de uma campanha de espionagem global sem precedentes De Pequim.

Ler também: Como a queda de um agente de inteligência revela a extensão da espionagem industrial chinesa

O fato é que todas essas novas medidas não poderiam impedir um concorrente de OpenAI de ” destilar Seus modelos de IA, uma acusação realizada pela empresa americana contra a Deepseek. Essa técnica é de fato acessar a interface de programação de aplicativos (API) de um modelo e reutilizar as respostas geradas por esse sistema para causar outro modelo de IA. No entanto, aqui, a proteção relacionada a essas respostas não parece ter sido reforçada. Somente salvaguarda: as condições gerais de uso dos modelos de IA do OpenAI sempre proibem usando os resultados gerados (“dados de saída”) por seus “sistemas” Para desenvolver modelos que a competição opera ».

Leia também: Vision Pro: Apple acusa um ex-funcionário de ter roubado ele fabricando segredos

🔴 para não perder nenhuma notícia de 01NET, siga -nos no Google News e WhatsApp.

Fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui