Inteligência artificial precisa de desligamento forçado e veto a ‘deepfake’, diz autor

Daqui a um século, 2023 será lembrado como o ano em que a humanidade decidiu garantir a sua sobrevivência.

Para Stuart Russell, professor e diretor do departamento de Ciência da Computação da Universidade de Berkeley, o motivo é claro: foi quando instituições como a ONU e governos de todo o mundo compreenderam a urgência do controle e regulação do desenvolvimento das inteligências artificiais.

Em sua palestra na noite desta quinta-feira (2) no ciclo Fronteiras do Pensamento, o britânico argumentou que o catalisador dessa mudança foi a publicação de uma carta aberta em abril de 2023 que pedia uma pausa na pesquisa de modelos de IA mais poderosos.

Assinado por empresários do Vale do Silício, líderes políticos e pesquisadores, incluindo o próprio Russell, o documento afirma que o futuro da espécie depende da criação de parâmetros internacionais de governança e regulação do uso das IAs.

“As IAs têm um potencial enorme para auxiliar a humanidade e isso está criando um ímpeto irrefreável que, conduzido da maneira atual, vai fazer com não tenhamos mais o controle do nosso futuro”, disse Russell, que também é autor do livro “Inteligência Artificial a Nosso Favor” e um dos pioneiros no estudo do tema.

Para Russell, mesmo que modelos como o ChatGPT-4, baseados em processamento de dados e deep learning, não apontem o caminho para a criação de uma Inteligência Geral Artificial (AGI na sigla em inglês), capaz de “exceder as capacidades humanas em qualquer direção”, o surgimento das verdadeiras IAs é inevitável.

A criação da AGI “é como um ímã para o futuro”, que exerce uma atração irresistível para a humanidade com promessas de riquezas antes inimagináveis. Para Russell, uma IA desse tipo seria capaz de aumentar sozinha a qualidade de vida de todo o planeta e multiplicar o PIB mundial em dez vezes. Isso sem falar nas transformações no mercado de trabalho ou nos avanços científicos possibilitados por ela.

Por isso, não surpreende que empresas e governos invistam centenas de bilhões de dólares no desenvolvimento e aperfeiçoamento das IAs. O problema, para Russell, é que figuras como Sam Altman, CEO da OpenAI, digam que seu objetivo é primeiro chegar à AGI e “depois descobrir como torná-la segura”.

“Nós precisamos fazê-la segura por design antes que ela atinja níveis super-humanos”, argumentou Russell. Para reforçar o alerta, o pesquisador ecoou Alan Turing, um dos criadores da computação moderna. Em palestra nos anos 1950, o cientista decretou que a criação de uma máquina de inteligência avançada levaria, inevitavelmente, à perda do controle pela humanidade.

E é nesse cenário que as regulações estritas sobre o uso das IAs entram em jogo. Para Russell, o importante é mudar a maneira de pensar o problema. A ciência deve se perguntar não como criar uma AGI, mas como criá-la de uma maneira que seja útil e proveitosa para a humanidade.

É essencial, argumentou o britânico, que uma série de medidas sejam adotadas o quanto antes: os governos e órgãos internacionais devem exigir que futuras IAs tenham um mecanismo de desligamento forçado, não possam personificar seres humanos e nem gerar “deepfakes”.

“Os desenvolvedores precisam ficar com o ônus de provar a segurança para os reguladores. Se você quer vender um remédio, você primeiro precisa garantir isso aos reguladores. Precisamos do mesmo princípio para sistemas de IAs”, disse Russell.

Os efeitos da falta de regulação também já são conhecidos. Para o pesquisador, a proliferação dos algoritmos de recomendação das redes sociais mostra um cenário em que a tecnologia é desenvolvida sem transparência e tem objetivos incompatíveis com os interesses coletivos. Nesse caso, os algoritmos buscam maximizar o número de cliques ignorando a qualidade da informação ou do conteúdo disparado.

Em outras palavras, as IAs precisam ser criadas, desde o início, com o objetivo de oferecer respostas benéficas para os dilemas e necessidades da humanidade. Do contrário, corre-se o risco de acabar como “Midas, que queria que tudo que tocasse fosse ouro e, assim, transformou tudo à sua volta, inclusive a sua família”, argumentou o britânico.

Para exemplificar os perigos das IAs sem regulação, Russell citou o personagem Thanos, vilão da série de filmes dos “Vingadores”, da Marvel.

Ao conquistar a onipotência através das Joias do Infinito, o antagonista estalou os dedos e matou metade da população do universo, sob a justificativa de que, com menos guerras por recursos e espaços, os remanescentes seriam mais felizes.

“Ele realmente acha que fez a coisa certa. Se sistemas de IA coletassem as Joias do Infinito, nós não queremos que elas cheguem às mesmas conclusões. Precisamos resolver esse problema ou fazê-las nunca terem esse problema”.

Ao longo do ano, o ciclo Fronteiras do Pensamento terá palestras com nomes como Muriel Barbery, Yascha Mounk, Nouriel Roubini, Anna Lembke e Simon Montefiore.

POR DANIEL SALGADO

Folhapress

Recent Posts

Projeto veta nomeação em cargos públicos a condenados por violência doméstica

Proposta de vedação à nomeação de condenados por agressão doméstica segue para análise de comissões…

31 minutos ago

Dise prende jovem por tráfico e apreende quase 800 porções de drogas na zona norte

Drogas, em variedades, e dinheiro encontrado com suspeito perto da Vila Barros (Foto: Divulgação/Dise) A…

48 minutos ago

Homem faz ‘barbeiragem’ com moto furtada em rodovia e acaba preso pela PM

Um homem foi preso em flagrante na manhã desta terça-feira (3), na zona oeste de…

59 minutos ago

Polícia Militar apreende moto sem placas e sem numeração na zona oeste

Moto sem placas, conduzida por homem sem capacete, sequer tinha etiqueta de segurança (Foto: Divulgação)…

1 hora ago

Após empate sem gols no Abreuzão, MAC pega a Itapirense fora de casa

O Marília Atlético Clube (MAC) entra em campo na noite desta quarta-feira (4) para mais…

2 horas ago

Morre aos 87 anos o médico urologista Jader Stroppa em Curitiba

Médico Jader Stroppa, falecido nesta terça-feira (3), aos 87 anos (Foto: Redes sociais) O médico…

2 horas ago

This website uses cookies.