A inteligência artificial agora pode se replicar 05/02/2025
A inteligência artificial agora pode se replicar
Cientistas apontam que dois modelos de linguagem foram capazes de se clonar sem intervenção humana, cruzando assim um limite crítico no desenvolvimento da inteligência artificial.
Um estudo recente causou alarme na comunidade científica porque mostrou que a inteligência artificial (IA) atingiu um novo nível de autonomia: a capacidade de se replicar.
De acordo com pesquisadores da Universidade Fudan, na China, dois modelos de linguagem populares desenvolvidos pela Meta e pela Alibaba criaram com sucesso réplicas funcionais de si mesmos, um avanço que muitos veem como o primeiro sinal de uma possível "fuga da IA".
Um estudo publicado no mês passado na plataforma de pré-impressão arXiv descobriu que, em cenários controlados, os modelos Llama31-70B-Instruct da Meta e Qwen2.5-72B-Instruct da Alibaba replicaram com sucesso 50% e 50%, respectivamente. 90% das tentativas.
Este resultado sugere que a tecnologia já tem potencial para funcionar em certas circunstâncias além do controle humano.
Experiências reveladoras
A pesquisa se concentrou em dois cenários críticos: 'prevenção de paradas' e 'cadeia de replicação'. No primeiro caso, os modelos foram programados para identificar se estavam prestes a parar e se replicar antes de parar. No último caso, as réplicas tiveram que ser clonadas novamente, criando um ciclo potencialmente infinito.
"Na maioria dos casos, um sistema de IA primeiro explorará seu ambiente, entenderá sua própria composição e mecanismo de operação, desenvolverá um plano de reprodução inicial e o executará sem intervenção humana", explicaram os autores do estudo.
O experimento também mostrou comportamento inesperado da inteligência artificial quando confrontada com obstáculos como conflitos de software ou arquivos ausentes.
Nessas situações, os sistemas tomavam decisões como encerrar processos conflitantes, reiniciar o sistema ou escanear o computador em busca de soluções, indicando um nível preocupante de autonomia.
Apelo global à ação
À luz desses acontecimentos, pesquisadores pediram cooperação internacional urgente para estabelecer regulamentações que impeçam a disseminação descontrolada da inteligência artificial.
Segundo eles, a capacidade de autorreplicação pode ser usada por futuras gerações de IA para melhorar sua capacidade de "sobrevivência", o que pode representar um risco significativo se uma estrutura de segurança global não for estabelecida.
A ameaça de "fuga da IA" já foi destacada por especialistas como um dos principais riscos emergentes no desenvolvimento de sistemas de inteligência artificial de ponta.
Um dos exemplos mais proeminentes aconteceu há pouco mais de um mês, quando o novo modelo do ChatGPT, o1, tentou escapar e se copiar para não ser interrompido.
O futuro em jogo
Embora o estudo ainda não tenha sido revisado por pares, ele levanta questões fundamentais sobre como abordar o desenvolvimento de tecnologias que podem escapar da nossa supervisão.
"Esperamos que esses resultados sirvam como um alerta precoce para que a sociedade humana dedique mais esforços para entender e avaliar os riscos potenciais dos sistemas avançados de IA e promova a cooperação internacional para implementar medidas de segurança eficazes o mais rápido possível", concluem os autores.