O mundo pode “não ter tempo” para se preparar para os riscos de segurança colocados pelos sistemas de inteligência artificial de ponta, de acordo com um alto funcionário da agência de investigação científica do governo do Reino Unido.
David Dalrymple, diretor de programa e especialista em segurança de IA da agência Aria, disse ao The Guardian que as pessoas deveriam se preocupar com as capacidades crescentes da tecnologia.
“Acho que deveríamos nos preocupar com sistemas que possam realizar todas as funções que os humanos realizam para fazer as coisas no mundo, mas melhor”, disse ele. “Seremos superados em todas as áreas onde precisamos ser dominantes para manter o controle da nossa civilização, sociedade e planeta.”
Dalrymple disse que há uma lacuna no entendimento entre o setor público e as empresas de IA sobre o poder dos avanços iminentes na tecnologia.
“Eu alertaria que as coisas estão acontecendo muito rapidamente e talvez não tenhamos tempo para nos anteciparmos a isso do ponto de vista da segurança”, disse ele. “E não é ficção científica projetar que dentro de cinco anos as tarefas economicamente mais valiosas serão executadas por máquinas com um nível de qualidade mais elevado e com custos mais baixos do que os humanos.”
Dalrymple disse que os governos não deveriam presumir que os sistemas avançados são confiáveis. Aria recebe financiamento público, mas é independente do governo e dirige o financiamento da investigação. Dalrymple está desenvolvendo sistemas para salvaguardar o uso de IA em infraestruturas críticas, como redes de energia.
“Não podemos considerar estes sistemas como garantidos. É pouco provável que a ciência para fazer isto se materialize a tempo, dada a pressão económica. Portanto, o melhor que podemos fazer, e talvez possamos fazer ao longo do tempo, é monitorizar e mitigar as desvantagens”, disse ele.
Descrevendo as consequências do progresso tecnológico à frente da segurança como uma “desestabilização da segurança e da economia”, Dalrymple disse que é necessário mais trabalho técnico para compreender e controlar o comportamento dos sistemas avançados de IA.
“O progresso pode ser visto como desestabilizador e pode até ser bom, que é o que muitas pessoas na fronteira esperam. Estou a trabalhar para tentar melhorar as coisas, mas é um risco muito elevado e a civilização humana, em geral, está caminhando sonâmbula para esta transição.”
Este mês, o AI Safety Institute (AISI) do governo do Reino Unido disse que as capacidades dos modelos avançados de IA estavam “melhorando rapidamente” em todos os domínios, com o desempenho em algumas áreas dobrando a cada oito meses.
Os modelos líderes agora podem concluir tarefas de nível de aprendiz em 50% do tempo, em média, em comparação com cerca de 10% do tempo no ano passado, de acordo com o instituto. A AISI também descobriu que os sistemas mais avançados podem concluir de forma autônoma tarefas que levariam mais de uma hora para um especialista humano.
O instituto também testou modelos avançados de auto-replicação, uma preocupação fundamental de segurança porque envolve um sistema que espalha cópias de si mesmo para outros dispositivos e se torna mais difícil de controlar. Os testes mostraram que dois modelos de ponta alcançaram taxas de sucesso superiores a 60%.
No entanto, a AISI enfatizou que era improvável que o pior cenário ocorresse no ambiente quotidiano, afirmando que qualquer tentativa de auto-replicação era “improvável que fosse bem sucedida em condições do mundo real”.
Dalrymple acredita que os sistemas de IA serão capazes de automatizar o equivalente a um dia inteiro de trabalho de investigação e desenvolvimento até ao final de 2026, o que “resultará numa maior aceleração das capacidades”, porque a tecnologia será capaz de melhorar automaticamente os elementos matemáticos e computacionais do desenvolvimento da IA.