Por que os robôs ameaçam humanidade e como podemos detê-los
A inteligência artificial pode tirar vários obstáculos do caminho. Mas será que as máquinas deveriam tomar todas as decisões daqui pra frente?
por Ricardo AmpudiaAtualizado em 28 out 2021, 21h17 - Publicado em
1 jun 2020
08h00
um futuro distante, as máquinas atingem uma capacidade tão alta de processamento que tomam decisões e resolvem problemas que os humanos não são capazes. As fábricas funcionam sem operários. A inteligência artificial fica tão complexa que as máquinas são capazes de replicar a si mesmas e, como aprenderam tudo sobre o comportamento humano, são capazes de prever nossas ações. A humanidade é superada e escravizada por uma sociedade de robôs.
o melhor da semana em uma curadoria exclusiva da elástica Inscreva-se aqui
Cadastro efetuado com sucesso!
Você receberá nossas newsletters sempre às quintas-feiras.
A discussão parece coisa de ficção científica ou de aficionados do apocalipse zumbi que estocam comida e roupas camufladas no porão, mas tem atraído a atenção de grande nomes do Vale do Silício e de institutos de pesquisa que debatem a fundo os riscos da inteligência artificial para a humanidade. Entre eles, o fundador do Paypal, Peter Thiel, que encaminhou US$ 1,6 milhão ao Miri (Machine Intelligence Research Institute), instituto de pesquisa para desenvolvimento seguro de inteligência artificial. Já o criador do Skype, Jaan Tallinn, se contaminou tanto com a ideia que decidiu fundar o Future of Life Institute, organização com o mesmo propósito do Miri, e para o qual já angariou US$ 10 milhões do bilionário Elon Musk, CEO da Tesla e da SpaceX. Mas quais são os temores de visionários da tecnologia em relação ao avanço das mesmas tecnologias com as quais fizeram fortuna?
Continua após a publicidade
Essa reportagem fica ainda mais gostosa de ler se você apertar play:
Publicidade
As máquinas serão mais inteligentes do que você
A chamada “AI Takeover”, teoria que prevê a tomada do controle da sociedade por robôs, afirma que o desenvolvimento acelerado da inteligência artificial levará a máquinas capazes de superar a inteligência humana e que, sem um sistema bem construído, não seremos capazes de impedir a tomada de decisões desastrosas.
As pesquisas nesse campo giram em torno de fazer com que a máquina resolva problemas complexos, mas levando em conta limites éticos na sua tomada de decisões. Impor limites, definir parâmetros e torná-la mais confiável na detecção de erros humanos. “O risco é que você dê a máquinas uma instrução que não é exatamente o que você quer – porque você não é muito bom em expressar o que você realmente gostaria ou não sabe exatamente o que deseja – até que seja tarde demais para perceber”, diz Stuart Russel, pesquisador do Miri, em seu livro “The Long-Term Future of Artificial Intelligence” (O futuro a longo prazo da inteligência artificial, em tradução livre).
“É preciso entender que esses dados que damos ao algoritmo já podem conter algum tipo de discriminação, o que predispõe a máquina a entendê-lo como lógico”
Christian Perrone, pesquisador
Continua após a publicidade
O instituto foca no que chama de “alinhamento”, uma forma de balizar o desenvolvimento da inteligência artificial de alta capacidade com os interesses e o bem estar humano por meio de um consenso entre os desenvolvedores desse tipo de tecnologia sobre quais os limites de ação dos robôs. Assim, o erro humano – ou melhor, a reprodução acelerada e eficiente dos erros humanos por máquinas de alta complexidade – é um dos pontos que preocupa os cientistas. É preciso ética e cuidado no tratamento de dados que servirão de base para o desenvolvimento de tecnologia inteligente.
Bom exemplo disso é o que aconteceu na Amazon em 2018, quando a empresa resolveu descontinuar um sistema interno de recrutamento de talentos que preferia sempre candidatos homens para cargos de desenvolvedores. A explicação era que o algoritmo havia aprendido com base nas contratações antigas da empresa, o que o fez entender que os homens eram sempre preferíveis para estas funções: “É preciso entender que esses dados que damos ao algoritmo já podem conter algum tipo de discriminação, o que predispõe a máquina a entendê-lo como lógico. Então, a discussão deveria ser mais sobre o resultado produzido, o serviço oferecido, do que sobre o desenvolvimento da tecnologia”, diz Christian Perrone, pesquisador do Instituto de Tecnologia e Sociedade do Rio.
Perrone usa como exemplo o dilema do carro autônomo. Em uma situação de risco, o sistema precisa escolher entre atropelar uma criança ou atingir um muro e matar o condutor. Há dúvida em torno de quem seria responsabilizado pelo acidente. “Essa questão não está 100% clara no cenário internacional. O software chega a essa conclusão de forma autônoma ou foi preestabelecido no seu desenvolvimento quem a máquina deveria escolher”, questiona.
Publicidade
Os robôs vão roubar o seu emprego (principalmente se você for pobre)
Existe ainda outra ameaça no desenvolvimento tecnológico: os robôs podem ser mais eficientes do que nós no trabalho. Segundo um estudo da universidade de Oxford que entrevistou os cem maiores pesquisadores da área, a expectativa dos cientistas é de que até 2023 as máquinas possam realizar até 10% do trabalho humano. Depois, o número chegaria a 50% e, finalmente, a 90% até 2080.
E, mais uma vez, a corda começará estourando do lado com menos privilégios. A automação de linhas de produção tende a afetar trabalhos que exigem pouco conhecimento técnico, são mais braçais e, consequentemente, remuneram menos. Segundo um estudo do Ipea (Instituto de Pesquisa Econômica Aplicada), lançado em dezembro de 2019, 56,6% dos empregos formais no Brasil podem ter tarefas desempenhadas por máquinas. A análise foi feita usando um banco de dados com mais de 19 mil tarefas de 900 ocupações, classificadas de acordo com sua probabilidade de mecanização.
“As empresas brasileiras têm adotado tecnologia de ponta de forma lenta, somos pouco inovadores”
Luiz Cláudio Kubota, pesquisador
Continua após a publicidade
De acordo com Luiz Cláudio Kubota, coordenador da pesquisa, os empregos mais afetados estão na área de mineração e siderurgia – profissões como operador de máquinas de transporte, destroçador de pedras e moldador. No entanto, um dos fatores que pode atrasar a substituição destes trabalhadores é o custo, já que dependem do desenvolvimento de robôs mecânicos. Já funções conhecidas como “colarinho branco”, desempenhadas em escritórios, como organização de documentos e expedição, podem ser substituídas por softwares, a um custo muito mais baixo e num prazo mais curto. “Nos próximos anos, teremos um mercado de trabalho muito diferente ao redor do mundo. Aqui no Brasil, talvez demore um pouco mais: as empresas brasileiras têm adotado tecnologia de ponta de forma lenta, somos pouco inovadores”.
Numa análise mais otimista, há benefícios. Os robôs podem desempenhar tarefas arriscadas para os humanos e, realizando tarefas que só exigem força, permite que realizemos tarefas menos desgastantes e mais intelectuais. Mas Kubota aponta que essa substituição é preocupante em um cenário como o brasileiro, onde boa parte dos profissionais em trabalhos mais braçais são pouco instruídos e teriam maior dificuldade em assumir funções que exigem qualificação. “Sou pessimista em relação a isso [à qualificação do trabalhador]. No Brasil, além do problema da baixa formação básica e digital, ainda temos um descasamento entre a demanda do mercado por profissões de formação tecnológica, como engenharia mecatrônica, e a alta procura dos estudantes por profissões menos demandadas num contexto de avanço da tecnologia, como Direito, Pedagogia e Administração.”
O mercado de tecnologia da informação ilustra bem esse cenário que Kubota teme. Segundo dados da Brasscom (Associação Brasileira das Empresas de Tecnologia da Informação e Comunicação), o país tem hoje uma demanda de 70 mil vagas em TI ao ano, mas forma só 46 mil profissionais na área no mesmo período.
Publicidade
As máquinas decidirão quem vive e quem morre
No Iêmen, um drone saudita sobrevoa Saana em busca de células rebeldes. Ele é controlado por um piloto a milhares de quilômetros dali, que decide quais são os alvos, analisa a situação e toma a decisão de atirar ou não, quando autorizado por seus superiores.
Pois a indústria bélica está desenvolvendo armas capazes de substituir essa cadeia de comando. Um robô superinteligente seria capaz de identificar um alvo e decidir se dispara ou não contra ele. Essa tecnologia acendeu o alerta vermelho da comunidade internacional, que quer limitar o desenvolvimento destes robôs o quanto antes: “A mensagem é muito clara. Máquinas que têm o poder e a discrição de tirar vidas humanas são politicamente inaceitáveis, moralmente repugnantes e deveriam ser banidas através de leis internacionais”, disse o secretário geral da ONU, António Guterres, durante uma conferência sobre tecnologia em Portugal, em 2018.
O Comitê Internacional para Controle de Armas Robóticas classifica esse tipo de arsenal em cinco níveis de autonomia, de acordo com o grau de supervisão e intervenção humana que ele permite. Nos níveis aceitáveis, um humano decide quais são os alvos antes de iniciar um ataque ou a máquina faz uma lista de alvos e um humano escolhe qual atingir.
Continua após a publicidade
Os outros três são considerados perigosos e devem ser banidos, segundo o comitê. No nível 3, o programa escolhe o alvo e o humano aprova o disparo. No 4, o robô seleciona o alvo e decide sobre o ataque, o humano tem um período de tempo para abortá-lo. Considerado como totalmente autônomo, as máquinas no nível 5 decidem quais são os alvos e se devem ou não atacá-los, sem nenhum tipo de intervenção humana.
“Essa discussão ainda está bem fluida no cenário internacional. O primeiro ponto é analisar se a proibição do desenvolvimento é factível, se ela seria de fato cumprida pelos países. Uma boa analogia são os tratados sobre armas nucleares, que nem todos respeitam apesar de terem assinado”, diz Christian Perrone, do ITS.
Na dianteira dos esforços por um acordo global, a Campaign to Stop Killer Robots é uma coalizão que reúne 140 ONGs, de 60 países – entre elas a Anistia Internacional e o Observatório de Direitos Humanos –, interessadas em fazer com que governos se comprometam a não desenvolver ou usar armas autônomas. São 30 países signatários, entre eles o Brasil, que entrou na lista em 2013. A China assina com ressalvas: apoia a proibição do uso, mas não o desenvolvimento.
Continua após a publicidade
Estados Unidos, Israel, Turquia, Reino Unido, Coreia do Sul, Austrália e França são contra o banimento do desenvolvimento dessas tecnologias. Não por acaso, todos estão no topo das listas de maiores compradores ou exportadores de armas no mundo. Afinal, a história da tecnologia é a história do próprio homem: ferramentas cada vez mais complexas para otimizar seus esforços e espalhar seu legado pelo mundo. Resta saber qual é o nosso objetivo. A inteligência artificial com certeza nos ajudará a chegar lá – e isso pode ser um desastre.
E aí, quanto tempo até esse carinha tomar o seu emprego?