Líderes de tecnologia pedem para frear a Inteligência Artificial

Pausem os grandes experimentos de IA!
Future of Life Institute
Corrida descontrolada?
Um futuro imprevisível
Assinantes
Protocolos de segurança
Intervenção governamental?
Ferramenta poderosa
Muitos erros (até agora)
Alucinações
Limitando riscos
Verão de IA
Controlando os tempos
Nem todo mundo concorda
Uma complicada solução
Criação de leis
Pausem os grandes experimentos de IA!

'Pause Giant AI Experiments: An Open Letter' ('Pausem os grandes experimentos de IA: uma carta aberta', em tradução livre) é o título do documento que mais de mil líderes em tecnologia e negócios assinaram, recentemente.

Future of Life Institute

A carta foi lançada através do 'Future of Life Institute' ('Instituto Futuro da Vida'), cuja principal preocupação é reduzir os riscos que a humanidade pode enfrentar com o avanço da inteligência artificial.

Corrida descontrolada?

Os autores da carta observam que "os desenvolvedores de IA estão presos em uma corrida fora de controle para criar e implantar mentes digitais cada vez mais poderosas".

Um futuro imprevisível

A carta aberta ressalta que "nem mesmo seus criadores podem entender, prever ou controlar com segurança" esta tecnologia.

Assinantes

Entre seus assinantes estão nomes ilustres como o multimilionário Elon Musk (fundador da SpaceX e CEO da Tesla), Steve Wozniak (cofundador da Apple, na foto) e Craig Peters (CEO da agência Getty Images).

Protocolos de segurança

A carta aberta propõe, entre outras coisas, “introduzir protocolos de segurança” para sistemas de IA. Assimm para aplicá-los, seria necessário interromper o desenvolvimento de IA mais potentes que o GPT-4.

Intervenção governamental?

"Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória", pedem.

Foto: Unsplash - Andy Kelly

Ferramenta poderosa

Segundo a carta, chatbots como ChatGPT, Bing e Bard visam tal nível de desenvolvimento, que estariam em condições de determinar quem serão os próximos líderes da indústria tecnológica.

Foto: Unsplash - Boitumelo Phetla

Os celulares mais icônicos da história

Muitos erros (até agora)

O problema é que essas ferramentas apresentam, hoje, falhas em detalhes, além de uma enorme capacidade de espalhar desinformação.

Foto: Unsplash - Drew Dizzy Graham

Alucinações

Entre os riscos alegados na carta estão as chamadas 'alucinações': informações e dados oferecidos pela IA que parecem totalmente confiáveis, mas, na verdade, são errôneos.

Foto: Unsplash - Maximalfocus

Limitando riscos

Basicamente, a carta pede um desenvolvimento sustentável e orgânico da IA, para ser usada “apenas quando tivermos certeza de que seus efeitos serão positivos e seus riscos administráveis”.

Foto: Unsplash - Jonathan Kemper

Verão de IA

Entretanto, a carta reconhece que "a humanidade pode desfrutar de um futuro próspero com a IA", mas é preciso passar primeiro por um "Verão de IA".

Foto: Unsplash - Lukas

Controlando os tempos

"Verão de IA" refere-se a um período em que "colhemos recompensas, projetamos esses sistemas para um benefício comum e damos à sociedade a oportunidade de adaptar-se".

Foto: Unsplash - Markus Spiske

Nem todo mundo concorda

Obviamente, há quem preferiu não assinar a carta, como é o caso de Sam Altman (na foto), diretor executivo da OpenAI.

Uma complicada solução

Esta recusa levam a pensar que a comunidade tecnológica não aceitará esta moratória.

Foto: Unsplash - Nguyen Dang Hoang Nhu

Criação de leis

Isso poderia complicar ainda mais a criação de uma legislação governamental para a Inteligência Artificial.

Foto: Possessed Photography / Unsplash

Veja mais!