Pallade Veneta - Medo de perder o controle da IA preocupa especialistas

Medo de perder o controle da IA preocupa especialistas


Medo de perder o controle da IA preocupa especialistas
Medo de perder o controle da IA preocupa especialistas / foto: BERTRAND GUAY - AFP

E se os humanos perdessem o controle da inteligência artificial? Reunidos em uma cúpula sobre IA em Paris, os especialistas sublinham a necessidade de estabelecer regras para evitar esse cenário.

Alterar tamanho do texto:

Ao contrário das cúpulas anteriores de Bletchley Park (Reino Unido), em 2023, e de Seul (Coreia do Sul), em 2024, que se centraram em questões de segurança, a Presidência francesa pretende que a reunião de segunda e terça-feira coloque a tônica em medidas eficazes de governação da IA.

O objetivo é que o maior número possível de intervenientes nesta nova revolução econômica se comprometa com uma declaração global, mas sem medidas vinculativas.

“O nosso desejo é não gastar o nosso tempo a falar apenas dos riscos. Há uma oportunidade muito real”, declarou à AFP Anne Bouverot, especialmente designada pela Presidência francesa.

Para Max Tegmark, presidente do Future of Life Institute e físico do prestigiado Massachusetts Institute of Technology (MIT), o país não deve perder o “momento crucial” desta cúpula sobre a IA, que reúne os principais intervenientes do setor durante vários dias na capital francesa.

- Ataques cibernéticos, ataques biológicos -

O Future of Life Institute apoia o lançamento de uma plataforma, chamada “GRASP”, que visa mapear os principais riscos relacionados à IA e as soluções desenvolvidas em todo o mundo.

“Identificamos cerca de 300 ferramentas e tecnologias que enfrentam esses riscos”, diz Cyrus Hodes, que coordenou a iniciativa.

Os resultados serão transmitidos à OCDE e aos membros da Parceria Global para Inteligência Artificial (PMIA), da qual a França faz parte e que se reúne no domingo.

O primeiro relatório internacional sobre a segurança da IA, fruto de uma colaboração internacional de 96 especialistas e apoiado por 30 países, pela ONU, pela União Europeia e pela OCDE, foi apresentado na quinta-feira, também com o objetivo de informar os formuladores de políticas sobre os perigos dessa tecnologia.

Embora alguns sejam bem conhecidos, como a criação de conteúdo falso on-line, o pesquisador de ciência da computação Yoshua Bengio, vencedor do prêmio Turing de 2018, diz que “evidências de riscos adicionais, como ataques biológicos ou ataques cibernéticos, estão surgindo gradualmente”.

Em longo prazo, ele se preocupa com a “perda de controle” dos seres humanos sobre os sistemas de IA animados por “sua própria vontade de viver”.

“Muitas pessoas achavam que dominar a linguagem, como faz o ChatGPT-4 (chatbot da OpenAI), era ficção científica há apenas seis anos”, lembra Max Tegmark.

“O problema é que muitas pessoas no poder ainda não entenderam que estamos mais perto de construir uma inteligência artificial geral do que de saber como controlá-la”.

- As máquinas estão no comando? -

A inteligência artificial geral seria comparável ou até mesmo superior aos seres humanos, e vários especialistas do ecossistema, como o diretor da OpenAI, Sam Altman, acreditam que ela será alcançada nos próximos anos.

“Se observarmos o ritmo de aumento das capacidades, podemos pensar que chegaremos lá em 2026 ou 2027”, concordou Dario Amodei, diretor da startup americana Anthropic, em novembro.

Com o risco de que, na “pior das hipóteses, essas empresas americanas ou chinesas percam o controle e a Terra seja dominada por máquinas”, argumenta Tegmark.

“A tecnologia está mudando muito rápido”, diz Stuart Russell, professor de ciência da computação na Universidade da Califórnia, Berkeley, e codiretor da Associação Internacional para IA Segura e Ética (IASEAI).

O mais preocupante “seria ter sistemas de armas em que a inteligência artificial controlasse e decidisse quem atacar e quando”, acrescenta.

Para esses especialistas, os Estados devem adotar medidas de proteção.

“Devemos tratar o setor de inteligência artificial da mesma forma que tratamos todos os outros setores”, enfatiza Tegmark.

“Antes de construirmos um reator nuclear perto de Paris, precisamos provar a especialistas nomeados pelo governo que o reator é seguro”, continua ele. “Deve ser a mesma coisa com a IA.”

Uma voz discordante é a do professor de ciência da computação de Berkeley, Michael Jordan, que considera a ideia de uma super IA “absurda”.

A IA “não pode saber tudo, porque o que estou pensando agora é o contexto do que farei em seguida, hoje. Ela não pode saber isso”, diz ele.

M.Jacobucci--PV

Apresentou

Ciberataque 'extremamente preocupante' atinge a classe política da Alemanha

Altos funcionários alemães foram recentemente afetados por um ataque cibernético à plataforma de mensagens Signal, um incidente "extremamente preocupante" que lança dúvidas sobre a segurança das comunicações no Parlamento, disse um deputado à AFP nesta sexta-feira (24).

Charles III encara visita delicada aos EUA após tensões entre Trump e Starmer

O rei Charles III parte na segunda-feira (27) para os Estados Unidos, onde o espera um exercício de equilíbrio diplomático, na esperança de apaziguar as tensões entre Donald Trump e Keir Starmer, tendo como pano de fundo o caso Epstein, especialmente doloroso para a família real britânica.

Cinquenta anos após o Plano Condor, pesquisa em Londres busca respostas

"Nunca perdemos a esperança, mesmo nos momentos mais difíceis". A chilena Laura Elgueta Díaz compartilha com a AFP seu desejo de que um dia seja esclarecido o desaparecimento, há 50 anos, de seu irmão Luis, uma das centenas de vítimas do Plano Condor.

Soldado dos EUA acusado de apostar sobre queda de Maduro com informação confidencial

Um soldado americano foi acusado de fraude e outros crimes após suspeitas de que ganhou mais de 400.000 dólares em uma plataforma on-line, ao apostar na queda do líder deposto venezuelano Nicolás Maduro com informação confidencial, anunciou o Departamento de Justiça dos Estados Unidos na quinta-feira (23).

Alterar tamanho do texto: