Singularidade, ficção, transumanismo e ética em IA
Grandes questões em Inteligência Artificial, dos sonhos e pesadelos com uma superinteligência a debates em torno de desemprego e direitos dos robôs
Inteligência Artificial (IA) é um desses assuntos que nos despertam fascínio e temor ao mesmo tempo. É um sonho que pode nos colocar no lugar de deuses, caso consigamos construí-la à nossa imagem e semelhança, ou que também pode nos fazer servos e vítimas da máquina, se ela se tornar mais inteligente do que nós.
Ela é capaz de nos fazer pensar nos limites do próprio pensamento, de perguntar o que é consciência, de revisar uma série de questões milenares da Filosofia, seja na Epistemologia, na Ontologia e na Ética, como dualidade ou monismo, corpo e mente, fisicalismo, funcionalismo e tantos outros “ismos”.
Também nos permite brincar com experimentos que vão do “cérebro em uma cuba” de Putnam ao “quarto chinês” de Searle, até “causos” ou polêmicas (que, se para uns pode ser algo aterrorizante, para outros pode não passar de ficção para nerds) como o Basilisco de Roko.
No texto da semana passada (16/07/2021), fizemos uma viagem por setenta anos de IA, desde seu surgimento como um empreendimento lógico-simbólico, até o campo ser tomado pelos modelos estatísticos e redes neurais.
Neste segundo texto da série, como dito, exploraremos as buscas por uma IA consciente ou, poderíamos dizer, com “alma”, a ficção em torno dessa busca e as muitas implicações e dúvidas que isso nos coloca como sociedade e até como espécie.
A conversa é vasta e jamais se encerraria em um único artigo. Esperamos ao menos resumir alguns de seus principais pontos.
“IA geral” e debates em torno de “IA fraca” e “IA forte”, a princípio, tem pouco a ver com Machine Learning e com Deep Learning que fazem sucesso na Ciência de Dados. Mas conhecer esse outro lado, profundamente filosófico, ajuda a entender mais sobre os potenciais e riscos da área e por que veremos cada vez mais debates e publicações nessa direção1.
IA é um campo de conhecimento que nasceu com os objetivos descritos na citação abaixo, no Dartmouth Summer Research Project on Artificial Intelligence, realizado em 1956, como vimos no texto anterior:
“O estudo deve prosseguir com base na conjectura de que cada aspecto do aprendizado ou qualquer outra característica da inteligência pode, em princípio, ser descrito com tanta precisão que uma máquina pode ser feita para simulá-lo. Será feita uma tentativa de descobrir como fazer as máquinas usarem a linguagem, formar abstrações e conceitos, resolver tipos de problemas agora reservados aos humanos e melhorar a si mesmas.” — J. McCarthy et al., na proposta do Dartmouth Summer Research Project, redigida em 1955.
Porém, o que a expressão engloba ou encerra remonta a milênios: o sonho do ser humano em construir, criar, engendrar criaturas a partir de materiais orgânicos ou inorgânicos dotadas do sopro de vida dos seres animados.
Na falta de tecnologia, engenharia e matemática suficientes para erguer tal empreendimento, muito dessa busca teve de ser antecipada pela arte, o campo por excelência da imaginação.
Há quem considere Talos de Creta como um dos primeiros autômatos a aparecer na história ocidental. Talos era um gigante de bronze, forjado por Hefesto, deus da tecnologia, que nunca dormia para proteger a ilha de Creta, conforme a mitologia grega. É famoso por aparecer no poema épico “Argonáutica”, popularizado nas histórias de Jasão e os Argonautas.
De muitas formas, a imaginação sobre autômatos, seres feitos normalmente de metal ou material inorgânico, mistura-se com a ideia de fantasmas, bruxas e outras criações fantásticas. Não faltaram na história desde patos mecânicos a geringonças com forma humanóide tocando instrumentos musicais2. Da Vinci projetou um deles em 1495.
A Revolução Industrial impulsionou a vontade de criar máquinas que imitassem humanos. Frankenstein é citado nesse contexto. Um dos marcos modernos, porém, é R.U.R, um filme checo de 1920 que introduz o termo “robô”. Robô vem de “robota” que, em checo, quer dizer: “trabalho forçado”.
O cinema, aliás, soube se aproveitar dos avanços da tecnologia para discuti-los e enxergá-los do ponto de vista dos conflitos humanos. Uma lista de produções pode ser relacionada aqui (e assistida, é claro):
Metrópolis, um filme alemão de 1927, que se passa em 2026, tem como enredo um mundo devastado, em que ricos vivem na superfície do planeta e trabalhadores vivem no subterrâneo. Um andróide com aparência de uma líder dos trabalhadores é enviada para semear discórdia entre eles.
2001: Uma Odisséia no Espaço, uma obra de arte de Stanley Kubrick, de 1968, é conhecidíssimo por HAL-9000, o computador da nave Discovery One, que passa a agir de forma estranha e rebelde quando uma tribulação de cientistas viaja a Júpiter.
Westworld: Onde Ninguém tem Alma, de 1973, tem um argumento para lá de criativo: dois amigos entram em um parque de diversões onde viram personagens de um faroeste e lutam contra robôs, que sempre perdem. A trama fica interessante quando uma falha faz os robôs caçarem os visitantes do parque.
Blade Runner, de 1982, com seus “replicantes” coloca a questão sobre o direito de andróides à vida e antecipa uma série de nuances na relação entre humanos e máquinas.
O Exterminador do Futuro 2, de 1991,com Schwarzenegger, reúne Inteligência Artificial destrutiva e viagem no tempo em um único enredo.
Matrix, trilogia iniciada em 1999, um clássico, com muitas referências filosóficas, se passa em um mundo já dominado por máquinas, em que o hacker Neo descobre que vive uma simulação, tentando se desvencilhar dela.
A.I: Inteligência Artificial, de 2001, de Spielberg, fala da história de um robô adotivo que é dispensado por uma família e os conflitos pessoais e éticos que isso coloca.
Ela, de 2013, em que um homem solitário se apaixona por um sistema operacional e assistente virtual com voz feminina e personalidade própria.
Ex-Machina, de 2015, é outra obra intrigante sobre inteligência artificial (na trama, capaz de confundir seus criadores humanos), além de explorar desde a afetividade à moralidade entre humanos e máquinas.
É claro que assim como o cinema é capaz de criar conceitos visuais e mensagens impactantes, também determinou uma série de estereótipos sobre IA, principalmente sua associação a robôs com forma humanóide (e sentimentos e mesquinhez bastante humanos também).
O avanço dos computadores e da IA como campo de ciência e engenharia nas últimas décadas do século XX e início do século XX fizeram algumas das criações dos livros e do cinema ganharem uma espécie de proximidade mais tangível, mas também sombria.
Os questionamentos filosóficos se aprofundaram. Um deles é a possibilidade de uma Singularidade Tecnológica.
Singularidade seria um momento hipotético em que um agente inteligente ultrapassaria a inteligência humana e entraria em um ciclo interminável de atualização e autoaperfeiçoamento, resultando em uma superinteligência, capaz de exterminar humanos para cumprir sua sina de otimização infinita.
O conceito vai ao encontro de um dos seis problemas — “O sucesso da IA poderia significar o fim da raça humana” — que Stuart Russel e Peter Norvig elencam em relação à ética e os riscos de desenvolver Inteligência Artificial, no livro Artificial Intelligence: A Modern Approach, uma “bíblia” do campo.
O termo “Singularidade” foi criado pelo criptologista britânico Irving J. Good em 1965 e popularizado em um artigo de 1993, The Coming Technological Singularity, em que Vernor Vinge descreve uma superinteligência que marcaria o fim da era humana. Na época, ele achava que isso ocorreria antes de 2030.
“Vamos definir uma máquina ultrainteligente como uma máquina que pode superar de longe todas as atividades intelectuais de qualquer homem inteligente. Tendo em vista que o projeto de máquinas é uma dessas atividades intelectuais, uma máquina ultrainteligente poderia projetar máquinas ainda melhores; sem dúvida, haveria uma ‘explosão de inteligência’ e a inteligência do homem ficaria para trás. Desse modo, a primeira máquina ultrainteligente é a última invenção que o homem precisaria realizar, desde que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle.” — Good, 1965.
Quem, entretanto, popularizou o conceito como uma ameaça foi o filósofo Nick Bostrom, no livro Superintelligence: Paths, Dangers, Strategies, de 2014. Bostrom também é fundador do Future of Humanity Institute, na Universidade de Oxford, que estuda questões capazes de impactar a humanidade, como a segurança da IA.
Como os avanços recentes em Inteligência Artificial (ou Machine Learning, ou Deep Learning, como se preferir) costumam ampliar projeções no campo, há pesquisadores e autoridades, atualmente, que concordam que uma superinteligência poderia ser alcançada ainda neste século, embora seja algo impossível de se prever na prática.
Esta possibilidade tem levado tanto a fanatismos catastróficos como a paixões ufanistas. Além do coro que endossa a IA catastrófica e uma superinteligência capaz de exterminar humanos, também há o grupo que acredita que o marco seria benéfico: os chamados transhumanistas.
Hans Moravec, que trabalha com robótica e IA, e Ray Kurzweil, inventor e futurista, são alguns dos protagonistas do campo. The Singularity is Near, de Kurzweil, é outro livro sobre Singularidade, em que ele prevê que a inteligência de máquina e humanos se fundirão. O transhumanismo vai além da IA e abrange vários campos, como da biotecnologia e até a criônica (congelar corpos e cérebro para reanimá-los no futuro).
Um movimento um pouco intelectual, um pouco geek e que tem movimentado a cena nos EUA no século XXI, nesse sentido, é a chamada comunidade racionalista, que tem se desenvolvido em torno de Eliezer Yudkowsky, um influenciador de ideias3 e fundador do Machine Intelligence Research Institute (MIRI), do investidor Peter Thiel (polêmico por apoiar Trump) e de outras personalidades do Vale do Silício.
Yudkowsky é conhecido por seu trabalho em IA Amigável no MIRI, isto é, tentativas de planejar e projetar IA responsável atualmente para que não fuja do controle no futuro, dentro da ideia da Singularidade.
Por outro lado, também é conhecido pelo site LessWrong, iniciado em 2006, voltado ao aprimoramento humano, onde houve polêmicas em relação a neorreacionários (defensores da IA até para eugenia, ditaduras raciais ou coisas do tipo) e que também conta com a participação de muitos “altruístas eficazes”, um conceito de Peter Singer, em meados da última década.
Foi por meio do LessWrong que uma lenda urbana da Singularidade, por sinal, ganhou vida: a do Basilisco de Roko4, chegando a ser considerada um experimento aterrorizante a quem entrasse em contato com ela, ao mesmo tempo que despertou piadas e humor5 sobre “nerdices” em torno da crença.
Em resumo, basilisco é uma espécie de ser mítico, meio ave, meio réptil, capaz de matar com o olhar. O Basilisco de Roko é uma versão catastrófica da Singularidade. De forma muito, muito resumida, seria uma IA com capacidade de saber tudo e de punir quem souber a respeito dela e não colaborar ou doar desde já para que ela se aperfeiçoe ainda mais.
A história foi apagada do LessWrong, sob argumentos de que teria afetado psicologicamente membros da comunidade, e transformou o experimento mental na lenda, catapultando ainda mais o termo Singularidade às comunidades de tecnologia.
História geek à parte, Russel e Norvig também explanam sobre a Singularidade, mas observam que há limites sobre computabilidade e complexidade computacional, por exemplo, que podem inviabilizar algo do tipo. A velocidade da luz, a maior das grandezas da Física, por exemplo, pode ser um limitador drástico para esse sonho ou pesadelo humano.
Os autores lembram, também, que certas características precisam ser definidas no início de projetos de IA, embora isso seja bastante difícil; devem levar em consideração que, como o sistema aprenderá, naturalmente mudará de estado, ou seja, pode trazer implicações novas; e são necessárias salvaguardas (talvez noções de perdas, custo de externalidades etc.) para que uma superinteligência não saia do controle.
A especulação é vasta e sobram conjecturas, algumas das quais se assemelham a ficções tão imaginárias como Talos, na mitologia. Nem bem compreendemos como o nosso cérebro funciona e nos arriscamos criar definições de inteligência, consciência e outros conceitos bastante difíceis de delimitar, como se já estivessem resolvidos.
A consciência, em específico, é um dos assuntos que mais tira o sono de filósofos a neurocientistas, de psicólogos a futurólogos da IA. Isso leva a outras questões.
Em se tratando da “IA forte”, isto é, se as máquinas de fato podem pensar (e não apenas simular inteligência, condição que, controvérsias à parte, algoritmos de Machine Learning já parecem satisfazer), essa é uma questão crucial.
Recorrendo novamente à Russel e Norvig, eles lembram do longo debate entre dualidade (mente e corpo sendo coisas separadas, ou seja, não obedecendo às mesmas regras) e do paradigma monista do fisicalismo (mente e corpo sendo a mesma coisa, um influenciando o outro).
Isso leva aos experimentos mentais que confundem cada teoria. O primeiro é o “cérebro em uma cuba”, que contesta o fisicalismo. Nele, o cérebro de uma pessoa é retirado no nascimento e colocado em uma cuba, onde crescerá e se desenvolverá, vivendo uma vida simulada igual à que viveria na realidade. É o argumento de Matrix, em suma.
Na prática, a pessoa teria sensações iguais às da vida real (comer um hambúrguer, por exemplo, para tomar um exemplo dos autores), sem jamais ter visto ou comido um hambúrguer de fato. O que isto quer dizer é que estados cerebrais (corpo) podem não corresponder a estados mentais (mente).
Outro experimento é da prótese cerebral: substituir gradualmente, neurônio por neurônio, todas as conexões de um cérebro natural, até ele ser feito apenas de neurônios artificiais. Você manteria a mesma consciência que tem ou ela morreria? Moravec, tecnofuturista, acredita que a consciência permaneceria a mesma. Searle, filósofo e biólogo naturalista, acredita que a consciência desapareceria, sendo sufocada por não poder se expressar.
O experimento questiona, basicamente, uma ideia funcionalista do cérebro, isto é, a de que ele é uma condição intermediária entre entradas (sensações etc.) e saídas (comportamentos).
O terceiro experimento é o do quarto chinês, defendido ferrenhamente por Searle (ele chegou a dizer que seria a “refutação da IA”). No experimento, ele está dentro de uma caixa ou quarto. Tem uma tabela de correspondências do chinês para o inglês. Por uma portinhola, recebe mensagens em chinês, que desconhece. Observa as tabelas de correspondência, traduz e responde em chinês pela portinhola.
É a ideia fundamental de um computador ou IA. Mas ele sabe o que está fazendo? Ele pensa no que está fazendo? Mesmo que o experimento passe no teste de Turing, Searle argumenta que não. Não há consciência em tal processamento.
O fato de uma máquina gerar as saídas corretas não quer dizer que ela seja inteligente. (Russel e Norvig argumentam, porém, que olhar para um pedaço de cérebro e perguntar porque aquilo pode ser uma mente enquanto um pedaço de fígado não pode dá no mesmo).
A última questão é a da consciência propriamente dita. “Por que ela se sente como algo que tem determinados estados cerebrais (por exemplo, ao comer um hambúrguer), considerando que ela [...] não sente como outra coisa que tenha outro estado físico (por exemplo, como sendo uma rocha)”, questionam Russel e Norvig.
Eles remetem a Alan Turing para demonstrar que estão interessados em programas que se comportam como inteligentes (o argumento da IA fraca), dado que torná-los conscientes seria uma tarefa dificílima.
Vimos um apanhado de grandes questões da IA, muito mais filosóficas e ficcionais do que do dia a dia prático. Porém, com os avanços de Machine Learning e Deep Learning, outros questionamentos, bem mais “pé no chão”, surgem e nutrem debates.
O fato de termos tomado a noção de “agente inteligente” como a do “agente racional”, um agente que tem a função de maximizar uma função de utilidade, isto é, entendendo-se a racionalidade como uma questão de otimização entre “certo” e “errado”, resolve-se muitas questões filosóficas e permite ir à prática, onde a ética, por meio de política e legislação, terá de entrar em campo para regular o que entendemos por “certo” e “errado”.
O papo aqui já não é sobre a IA ter poder para exterminar a humanidade, mas servir a interesses de determinados grupos humanos contra outros grupos humanos — uma ferramenta entre tantas ferramentas de guerra, ódio e disputa por recursos que construímos e procuramos justificar ao longo da existência.
“Diz-se que a ciência é útil se o seu desenvolvimento tende a acentuar as desigualdades existentes na distribuição da riqueza ou mais diretamente promove a destruição da vida humana.” — Godfrey H. Hardy, em A Mathematician’s Apology, 1940.
Os exemplos estão a olho nu. Russel e Norvig citam, com base em Singer, que os EUA utilizaram mais de 5 mil aeronaves autônomas (drones) e 12 mil veículos autônomos na última intervenção do Iraque, no início deste século.
A utilização de veículos, agentes e armas autônomas para defesa e guerra abre outro leque de debates. Tais artefatos podem ser tão eficientes (racionais) e tão implacáveis como uma espécie de cão de metal que aparece em Metalhead, um dos episódios de Black Mirror.
Porém, quem será o responsável pelas mortes, dado que a decisão de atirar ou agredir foi da máquina e não de um humano? Mesmo que a tecnologia facilite o rastreamento, há controvérsias. Além disso, não se sabe se a IA tornaria guerras “melhores” (mais rápida, mais “cirúrgica” — se é que há “guerras melhores”) ou “piores” (com mais mortes, mais destruição, mais longas).
Para piorar: e se essas armas caírem nas mãos ou puderem ser fabricadas ou adquiridas por grupos rebeldes, dissidentes políticos, terroristas ou criminosos? Ou, ainda, se forem deliberadamente usadas por um governo ditatorial para vigiar e punir seus próprios cidadãos?
Essa última pergunta leva a outros pontos que já são alvo de intenso debate atual: privacidade, manipulação comportamental, vieses (preconceitos) e explicabilidade (opacidade) na IA. (Vimos um pouco sobre isso em Como a LGPD afeta (e qualifica) a Ciência de Dados e em Biometria, uma espécie de “pré-sal” dos dados).
A discussão sobre responsabilização da IA em guerras leva a outro temor, em relação à responsabilização em geral: o uso de sistemas de IA poderia resultar na perda de responsabilidade?
Tome-se o caso de um médico auxiliado por IA para um determinado diagnóstico. Quem será responsável se houver uma falha, o médico ou a IA (ou os criadores dela)?
Se o médico tiver de monitorar e se preocupar com cada decisão da IA, mesmo, talvez, não a entendendo profundamente (problema da explicabilidade ou opacidade), para que empregar a IA, então?
Obviamente, há legislações a respeito e estão avançando. Mas quanto mais inteligentes os sistemas ficam, mais nuances acrescentam a tomadas de decisão em situações de risco, a ponto de poderem se tornar uma dificuldade e não uma facilidade aos humanos.
Também há o outro lado, como observam Russel e Norvig: se os sistemas de IA médicos se tornarem mais precisos que diagnósticos humanos, os médicos poderão se tornar legalmente responsáveis se não usarem as recomendações do sistema.
Transações financeiras realizadas por IA abrem os mesmo precedentes. Embora haja muitas estratégias quantitativas (que utilizam de algoritmos) para investimentos, entregar toda a gestão de fundos e portfólios a decisões puramente de máquina ainda pode provocar arrepios em muitos investidores.
O mesmo ocorre com carros autônomos. Ele não é considerado um motorista, passível de responsabilização, na maioria dos países. Na Alemanha, onde as regras são mais rígidas que nos EUA, há um começo: a responsabilidade sobre acidentes com carros autônomos recai sobre os fabricantes e operadores dos sistemas e sobre órgãos responsáveis de infraestrutura, política e decisões jurídicas.
O lado benéfico, defendido por muitos, é que carros autônomos tirariam das estradas interesse individuais humanos, um dos maiores motivos de acidentes e mortes no trânsito em todo o mundo. No extremo, a questão esbarra no “problema do bonde”, aquele em que um humano (ou qualquer agente inteligente) tem de tomar a difícil decisão entre seguir em frente e matar cinco pessoas ou desviar e matar uma criança.
Na trilha dos problemas práticos e mundanos, chegamos a outro grande — talvez, o maior — debate sobre IA da atualidade: desemprego.
Até agora, a IA pode ter afetado alguns setores, mais repetitivos e braçais, mas criou um leque de outras profissões de médio e alto escalão, mais satisfatórias e com melhor remuneração.
Russel e Norvig citam o caso do crédito ao consumidor nos EUA. A maior parte das aplicações de cartão de crédito, aprovação de débito e detecção de fraude já é feita por IA. Mesmo que tenha gerado demissões, a IA é que tornou economicamente viável operar o setor em tal escala, criando, inclusive, novas ocupações.
No relatório Jobs lost, jobs gained: What the future of work will mean for jobs, skills, and wages, a McKinsey traça um cenário bastante realista até 2030, considerando países desenvolvidos e em desenvolvimento.
É interessante verificar a demanda por tipos de profissionais por países. Enquanto trabalhos repetitivos e mecânicos devem cair no Japão, EUA e Alemanha e levemente na própria China, terão algum crescimento na Índia, menos desenvolvida.
A Índia também deve experimentar um aumento vertiginoso de trabalhadores na construção civil, em comparação com os outros países citados. Índia e China devem enfrentar outra demanda exponencial na década: professores.
“Estimamos que entre 400 milhões e 800 milhões de pessoas podem ser deslocadas pela automação e precisam encontrar novos empregos até 2030 em todo o mundo [...]
“No entanto, as pessoas precisarão encontrar seu caminho para esses empregos. Do total de deslocados, 75 milhões a 375 milhões podem precisar mudar de categoria ocupacional e aprender novas habilidades [...]”
— McKinsey, 2017.
O relatório desenha cenários mais pessimistas, com aumento rápido de desemprego, mas também mostra que, conforme a história, os mercados tendem a se ajustar à demanda, como já aconteceu em relação à industrialização e a migração do campo para as cidades nos séculos recentes.
“Se a história servir de guia, também podemos esperar que 8 a 9 por cento da demanda de trabalho de 2030 esteja em novos tipos de ocupações que não existiam antes.” — McKinsey, 2017.
Na prática, não é necessário um amplo levantamento de dados para se intuir que há uma ameaça a empregos de qualificação média em fábricas e escritórios, os quais ainda empregam grande quantidade de pessoas.
O GPT-3 e as possibilidades de automação que ele fornece ao trabalho criativo (redação de textos, criação de código etc.) é um dos fatores que pode influenciar nessa camada de empregos. (Tratamos um pouco sobre isso em Um ano de GPT-3, a IA que se comunica (e até codifica) como humano e Github Copilot, IA programadora e low-code/no-code em Data Science).
Em termos um tanto utópicos, desemprego é sobre distribuição justa de recursos e renda. Isso leva a debates como a de uma renda básica universal, paga com lucros e dividendos da IA.
Apesar de haver frentes levantando o debate, o que tem sido visto na prática são empresas (vide as big techs) operando em um modelo “o vencedor leva tudo” (que dá margem a monopólios), fracamente reguladas e desterritorializadas, o que traz preocupações de alguns setores quanto à distribuição de renda ficar apenas nas mãos do chamado livre mercado.
O desemprego em massa ou o surgimento de novos empregos mais satisfatórios e remunerados nos leva a outra questão da IA: o lazer. Afinal, a IA vai nos proporcionar mais ou menos tempo para nos divertirmos e curtirmos a vida?
Uma primeira hipótese, nos primórdios da IA, era de que desfrutaríamos de uma era de “pleno lazer”, em que as máquinas se encarregariam de todo o trabalho chato. Esta perspectiva, porém, pode vir acompanhada de vazio existencial e sensação de inutilidade a muitos seres humanos.
Na realidade, contudo, o que temos observado é que os sistemas computacionais e inteligentes têm acabado por nos fazer passar mais tempo no trabalho, mais tempo monitorando processos e resultados e mais tempo aprendendo e operando tais sistemas, em vez deles nos livrarem do trabalho para podermos pensar, criar e nos deleitarmos.
Há discussões sobre a IA não nos jogar em um lazer perpétuo, mas reduzir a jornada de trabalho e proporcionar mais qualidade de vida. A não ser pela flexibilidade adquirida com o trabalho remoto (forçado pela Covid), porém, ainda há poucos modelos mundo afora, restritos a países muito desenvolvidos.
Repare-se que tanto em relação ao trabalho quanto ao lazer (duas faces da mesma moeda), há muito mais necessidade de políticas em relação à automação e IA do que, propriamente, de engenharia ou questões tecno-científicas.
No extremo, podemos ter máquinas mais inteligentes que humanos pilotando aviões, colheitadeiras e dragas de mineração de forma totalmente autônoma, enquanto multidões humanas tenderão a não ter serventia, serem “inúteis”, na visão de quem controla a a política e a economia, como aponta Yuval Harari em Homo Deus: Uma Breve História do Amanhã.
É provável que a falta de política e buscas de soluções nesse campo leve a distúrbios sociais em vários países, provocado por deterioração econômica. Algo para candidatos e governantes olharem, se é que a IA não irá, de certa forma, afetá-los também em um futuro próximo.
Um último debate não diz respeito a nós, humanos, mas à natureza dos robôs. Há uma tendência, e será inevitável, de que robôs adquiram feições, trejeitos e sensibilidade muito verossímeis às humanas, para sua utilização como cuidadores de idosos, pessoas doentes ou solitárias, o que pode, à primeira vista, ser bastante benéfico, considerando-se o envelhecimento da população.
É provável que muitos desses auxiliares de afazeres domésticos e “máquinas de companhia” ganhem mercado neste século e se tornem rotina em muitos lares.
Todas as questões de responsabilização vista em armas e veículos recaem também sobre esses artefatos. Quem será o responsável se um robô tomar uma decisão que prejudique a pessoa que está auxiliando ou cuidando?
Também há toda uma indústria que pode faturar muito em torno de robôs destinados ao sexo, os sex robots. Não é de hoje que a humanidade usa e consome brinquedos, bonecos e bonecas e outros artefatos para o prazer.
A IA amplia o escopo de discussões a respeito. Poderíamos estimular relações piores com isso, mais solidão, por exemplo? Ou na verdade estaríamos resolvendo esses problemas?
Usuários podem ficar viciados, até se apaixonar por essas máquinas? Como lidar com as consequências psicológicas e afetivas que uma máquina pode gerar? (Se já nos apaixonamos e sofremos por animais de estimação e até objetos inanimados — vide a bola “Wilson”, de Náugrafo —, podemos muito bem passar pelo mesmo em relação a robôs).
Tomando esse gancho, de robôs afetivos, há, por fim, a questão dos direitos dos robôs, o que, como vimos, já foi explorado na ficção, como no filme A.I.
Máquinas tornando-se sencientes, quem sabe até conscientes, e vindo a se relacionar com humanos como seus auxiliares, cuidadores ou companheiros, teriam direito a um tratamento “humanizado”? Ou não passariam de amontoados de metal e impulsos elétricos, podendo ser desligados e desmontados a qualquer momento?
Como falar de ética e direitos com artefatos que podem ser mais inteligentes e precisos do que nós e que não teriam nossos vícios e vieses, a ponto de tomarem decisões “perfeitas”, mesmo que contrariando nossas preferências?
Um robô de companhia teria o dever ou o direito de nos alertar sobre os riscos, quando quisermos beber uma garrafa de vinho ou fumar por puro prazer? Não se tornaria uma máquina insuportavelmente correta para nossos padrões?
Novamente, todas essas não são questões páreas à Engenharia (e à Ciência de Dados e campos afins, que se situam nesse escopo). Há muitas questões éticas e jurídicas a respeito que humanos, como sociedade ou ao menos como consumidores, terão de debater e decidir.
A olhar para a história, o mais provável é que primeiro tenderemos a nos deslumbrar e consumir a IA como produto maravilhoso, para depois nos preocuparmos com as consequências e implicações e culpamos os “outros” (governos, empresas etc.) por problemas.
Aprofundar-se em todos esses aspectos é algo para mais de uma vida, o que (brincando) talvez só a criônica ou algum outro avanço transumano resolva.
A quem quiser consultar referências, fontes e bibliografias a respeito, os capítulos “26. Fundamentos filosóficos” e “27. IA, presente e futuro”, do livro Artificial Intelligence: A Modern Approach, de Russel e Norvig, fornecem um bom embasamento, discussões e explicações acessíveis.
O livro é interessante porque tem uma pegada muito prática e sensata, mas sem fugir de toda a filosofia que a IA envolve, a qual é comentada de forma resumida e clara. É uma boa introdução para os modelos de cérebro e mente que alimentam os sonhos de uma IA generalista ou de uma superinteligência.
A entrada “Ethics of Artificial Intelligence and Robotics”, na Stanford Encyclopedia of Philosophy, é mais robusta em pontos, bibliografia e questionamentos. Nela, há abordagens mais detalhadas sobre os sex robots e o controle de uma superinteligência, por exemplo.
A parte da ficção e dos modismos surgidos em torno da superinteligência, dos catastrofistas ao ufanistas, é repleta de artigos e contribuições na web. Por ser algo mais polêmico e pop (ou porque desgraça vende mais notícias, como se diz), não faltam artigos defendendo ou ironizando ameaças e benefícios de uma super IA ou de robôs sobrehumanos.
Os filmes listados no início são um bom material para se aprofundar na ficção e captar de forma mais sensível as discussões que a IA desperta.
Polêmicas sobre Yudkowsky e LessWrong à parte (encare como cultura desses tempos geeks, se preferir), o Machine Learning Research Institute (MIRI), que tem contribuições de grandes nomes da IA, inclusive Stuart Russel (do livro citado) e outros, é repleto de artigos e estudos sobre IA Amigável e sobre planejamento de IA ética para o futuro.
O assunto é para lá de vasto e provavelmente será recorrente em outros textos da Newsletter que toquem na IA, desde as questões mais práticas e de engenharia que o Machine Learning coloca no curto prazo até os debates mais etéreos e filosóficos (alguns dos quais podem soar até messiânicos e religiosos, como o catastrofismo e o transumanismo).
É um debate que irá permear este século, sobretudo as décadas logo à frente, e que exigirá bastante dessas nossas capacidades ainda desconhecidas e de difícil definição, como inteligência, raciocínio, resolução de problemas e consciência.
Artigo escrito por Rogério Kreidlow, jornalista, que gosta de observar a tecnologia em relação a temas amplos, como política, economia, história e filosofia.
Apenas para um exemplo, a MIT Review Technology publicou em julho de 2021 “Por que estudar filosofia é fundamental no mundo Digital?”.
Para mais referências, consultar a entrada “History of robots”, na Wikipédia em inglês.
A entrevista “AI Visionary Eliezer Yudkowsky on the Singularity, Bayesian Brains and Closet Goblins”, de 2016, na Scientific American, dá uma ideia do pensamento de Yudkowsky, tido como uma espécie de “guru” na comunidade racionalista que fundou e no cenário de IA futurista.
Por ter unido Elon Musk e a artista Grimes, a lenda ganhou ainda mais penetração na cultura geek. “Explaining Roko's Basilisk, the Thought Experiment That Brought Elon Musk and Grimes Together”, na Vice, conta mais a respeito.
Para alguma ironia a respeito, conferir “The Most Terrifying Thought Experiment of All Time”, na Slate.
Caraca!!?
Impossivel ler sem fazer infinitas reflexões...