Sábado, 27 de Abril de 2024

Cientistas assinam acordo para prevenir armas biológicas alimentadas com inteligência artificial

2024-03-18 às 15:44
Foto: Freepik/Reprodução

Mais de 90 biólogos e cientistas especializados em tecnologias de inteligência artificial (IA) usadas no desenvolvimento de novas proteínas, ou seja, mecanismos microscópicos que impulsionam criações na biologia, assinaram um acordo para garantir que pesquisas auxiliadas por IA avancem sem expor o mundo a danos graves.

Conforme publicação do jornal “New York Times”, no último ano, Dario Amodei, executivo-chefe da Anthropic, uma das principais startups de IA no mundo, disse que a nova tecnologia IA poderia, em breve, ajudar pessoas não qualificadas, mas más, a criarem ataques biológicos em larga escala, incluindo a liberação de vírus ou substâncias tóxicas que causam doenças e mortes generalizadas.

“Como cientistas envolvidos nesse trabalho, acreditamos que os benefícios das atuais tecnologias de IA para o design de proteínas superam em muito o potencial de danos e gostaríamos de garantir que nossa pesquisa continue sendo benéfica para todos no fundo”, diz trecho do documento.

Vale dizer que o manifesto não busca suprimir o desenvolvimento ou a distribuição de tecnologias de IA. Os biólogos buscam regulamentar o uso dos equipamentos necessários para a fabricação de novos materiais genéticos.

O acordo contra os males da inteligência artificial (IA)

O acordo é um dos esforços para pesar os riscos da IA em relação aos seus benefícios. Alguns especialistas, inclusive, alertam sobre o risco de a tecnologia espalhar desinformação, substituir empregos e causar a destruição da humanidade.

Por isso, laboratórios acadêmicos, órgãos reguladores e os legisladores estão lutando para entender a dinâmica e encontrar a maneira correta para lidar com a situação.

Ainda conforme o veículo, mesmo afirmando que a a IA poderá ajudar malfeitores, Amodei reconhece que isso não seria possível hoje.

Recentemente, a Anthropic conduziu um estudo e apontou que, caso alguém estivesse tentando adquirir ou projetar armas biológicas, as LLMs (Grande Modelo de Linguagem, em tradução), eram pouco mais úteis do que um mecanismo de busca comum na internet.

No entanto, o receio é de que, à medida que as empresas melhores as LLMs e os combinem com outras tecnologias, pode haver ameaça. O executivo disse ao Congresso que restavam entre dois e três anos para isso acontecer.

Leia a reportagem completa da CNN