Devemos temer a IA?

2023-09-20 - inteligencia_artificial-1-2

Por Carlos Menezes – Cacifo Digital | Imagen: ShutterStock

Em 2014, numa carta enviada para o The Independent, Stephen Hawking afirmou: “As máquinas
poderão manipular mercados financeiros, seres humanos, desenvolver armas que nós não
poderíamos entender e provavelmente provocariam o fim da nossa espécie se não aprendermos
a controlar os danos. Então, encarando os possíveis futuros com benefícios e riscos incalculáveis,
os especialistas estão fazendo tudo que está ao alcance deles para garantir o melhor resultado,
certo? Não é bem assim. Pouquíssimas pesquisas de contra medidas são desenvolvidas e levadas
a sério fora de institutos não lucrativos como o Centro de Estudo de Riscos Existenciais de
Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisas de Inteligência das
Máquinas e outros similares. A questão é que todos nós deveríamos pensar um pouco mais a
respeito dessa questão. Será que se criássemos inteligência artificial e essa inteligência decidisse
viver, o desejo de viver seria algo irrelevante, pré-programado, mesmo que involuntariamente, ou
algo espontâneo a ser respeitado? E o que as máquinas achariam disso?”


Em outra publicação mais recente afirmou: “O gênio saiu da garrafa. Nós precisamos seguir
adiante no desenvolvimento de inteligência artificial mas também precisamos ser conscientes dos
seus reais perigos. Eu temo que a IA talvez venha a substituir a humanidade. Se as pessoas
desenvolvem vírus de computador, alguém vai desenvolver IA que replica a si mesma. Esta será
uma nova forma de vida que superará os humanos”. E em outra frase afirmou que: “Essa seria a
maior conquista da humanidade até então e possivelmente a última”.

Como vemos, o estudo da IA não é recente e os temores sempre estiveram presentes nas cabeças
mais privilegiadas.


Recentemente foi a vez de Steve Wozniak, cofundador da Apple, se manifestar a respeito da
tecnologia: “Tenho medo da IA, acho que deveria ser regulada e tenho propostas sobre como fazer isso”.
Na mesma oportunidade completou: “Eu tenho medo. Há muitos exemplos de erros de IA. Ela pode
alucinar e decepcionar, dar informação errada e ser preconceituosa”.

No início deste ano, Elon Musk, da Tesla e SpaceX, Emad Mostaque, da Stability AI, Steve
Woniak e outros engenheiros da Microsoft, Meta, Google, Deep Mind e Amazon assinaram uma
carta aberta onde pediam a suspensão de 6 meses no desenvolvimento da Inteligência Artificial,
pois assinalavam que “Sistemas de Inteligência Artificial com inteligência capaz de competir com
seres humanos podem acarretar riscos pesados para a sociedade e a humanidade“, é possível
ler-se na carta. “Nos últimos meses, é possível ver laboratórios de Inteligência Artificial numa
corrida desenfreada para desenvolver mentes digitais cada vez mais poderosas que ninguém,
nem mesmo o seus criadores, podem entender, prever ou controlar.” Diziam ainda que “os
responsáveis pelo desenvolvimento da Inteligência Artificial devem utilizar os seis meses de
suspensão para “desenvolver e implementar em conjunto um leque de protocolos de segurança,
para o design e desenvolvimento de Inteligência Artificial avançada.” Estes protocolos devem ser
“auditados de forma rigorosa e supervisionados por peritos independentes “.

Na realidade o temor presente nos principais executivos de tecnologia tem preocupações
centradas na regulação, no uso indiscriminado da tecnologia e em seus possíveis efeitos na
sociedade.

Preocupados com este assunto, Congresso dos EUA começa a receber, na próxima semana,
audições para preparar leis sobre inteligência artificial. Serão ouvidos vários executivos do setor
para ajudar a criar legislação e diminuir os riscos deste desenvolvimento tecnológico.
Cabe, também, aos operadores do Direito ficarem atentos e trabalhar em conjunto com os
desenvolvedores e legisladores de maneira a estabelecer um controle rígido, com padrões éticos
bem definidos, buscando sempre o melhor interesse da sociedade.

Carlos Menezes
Advogado
Set/2023

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *