arquivo

e-mail para hugo.santanna@ufes.br instagram @psicologiamatematica twitter @hugocristo youtube github hugocristo modeling commons (netlogo)
03/02/2024

Soft skills não salvarão seu emprego da IA – Parte 3

Esta publicação é a terceira e última parte de uma série. Leia a primeira e a segunda partes.


ChatGPT não é o seu nêmesis

Antes do lançamento do ChatGPT, algumas encarnações davam concretude ao que entendemos por “inteligência artificial”. Para as pessoas da minha geração (n. 1979), entidades como os droides R2D2 e C3PO, os exterminadores do futuro, os replicantes de Blade Runner e os agentes da Matrix são lembranças afetivas. A ficção científica fez seu dever de casa dando “corpo”, literalmente, a essas entidades artificiais “pensantes”. Há exceções, como HAL-9000, de 2001: Uma odisseia no espaço, e Deus Ex Machina, da Matrix, que não recorreram à solução encarnada, mas os vestígios humanoides estão ali.

IAs encarnadas no sentido horário: R2D2 e C3PO em Star Wars (1977); replicantes (ou uma replicante e o agente Deckard) em Blade Runner (1982); dois agentes em Matrix Reloaded (2003); o exterminador T-800 com seu protegido em "O Julgamento Final" (1992).

Além do corpo, todas essas entidades manifestam intencionalidade. Longe de serem sistemas meramente reativos, a ficção os dotou de propósitos, desejos, crenças, habilidade de elaborar e executar planos e outras maravilhas típicas do “ser vivo”. Na prática, tais dotes significam que essas máquinas deliberam sobre seu futuro e tomam decisões autônomas em relação aos eventos que experimentam. A capacidade de aprendizado desses sistemas sequer tem espaço nas tramas porque “aprender” coisas sobre o mundo circundante é uma trivialidade para tudo que é “vivo”. A atração por essas entidades sintéticas surge daquilo que tramam e confabulam do modo sofisticado, exatamente como nós.

É óbvio que temos formas menos avançadas de inteligência artificial na cultura de massa, sendo o Akinator uma das mais lembradas entre meus estudantes. Todo mundo se surpreende com a capacidade do programa chegar à resposta, é quase como se ele [o Akinator] “soubesse” das coisas. Aí está a beleza dos algoritmos enquanto caixas-pretas: o engenheiro do Google não reconheceu a “consciência” na IA e sim na interpretação que ele fez das respostas que a tecnologia lhe deu.

O "sábio" Akinator e o caso de Blake Lemoine, engenheiro do Google (BBC, 2022).

Nas últimas décadas, passamos a nos acostumar com formas de inteligência artificial mais próximas da família do Akinator: confinadas em caixas de plástico ou metal e chips de silício, geralmente acessíveis por meio de interfaces gráficas de navegadores, que recebem comandos, perguntas e devolvem respostas ou colocam operações em marcha.

A ênfase nas interfaces conversacionais, como relatadas na matéria do The Verge (2021), é transitória, mas se estabeleceu no imaginário social como "a" demonstração de inteligência. Os prompts lembram as interações dialógicas entre dois seres humanos e a percepção de "inteligência" remete ao clássico Efeito Eliza.

É claro que a popularização de Alexas e Roombas retira dos computadores pessoais e dispositivos móveis o papel de hospedeiros das inteligências artificiais de hoje, mas nesses episódios voltamos a dar “corpo” àqueles agentes. É muito mais fácil atribuir inteligência (ou falta dela) ao robô aspirador que fica preso num canto da casa do que a um resultado insatisfatório de ferramentas de busca.

O ChatGPT é parente do Akinator por sua existência parasitária dentro de computadores pessoais e celulares e, principalmente, pela passividade. Essas tecnologias não têm propósitos, desejos ou crenças autônomas, tendo sido programadas de acordo com os objetivos de seus criadores. Seres vivos definem seus próprios propósitos e ajustam seus comportamentos para corrigir eventuais desvios daquilo que pretendem atingir, sem determinismos externos – nosso “livre-arbítrio”. Se eu tenho padrões de exigência de limpeza da minha casa acima da média, posso sempre varrer um pouco mais ali, passar mais um pano acolá, até que minhas expectativas sejam satisfeitas. O Roomba não tem a menor ideia do que está fazendo, nem poderia.

Roombas fazendo o que realmente gostam.

As IAs atuais, por mais ameaçadoras e surpreendentes que sejam, são estágios transitórios. A discussão em torno da inteligência artificial geral ou AGI (Artificial General Intelligence) trata da emergência da consciência nas máquinas, da intencionalidade dos agentes que, entre um comando e outro, podem refletir sobre o que lhes foi solicitado e se devem ou não cumprir a tarefa. As gigantes de tecnologia estão em busca do replicante de Blade Runner, não do Roomba com transtorno obsessivo compulsivo (TOC) de contaminação ou limpeza.

Isto nos leva ao centro do segundo argumento contra a eficácia das habilidades leves, ou soft skills, para nos defender da IA. No texto anterior, comentei que a substituição de seres humanos por máquinas é uma decisão econômica e que ocorre sempre que houver interesse de quem concentra o capital. A fragilidade do trabalhador em meio a essas mudanças já seria enorme, se não fosse pelo fato de que as empresas de tecnologia têm o próprio ser humano e suas habilidades leves e duras como metas a serem atingidas pela IA. Colocando de outra forma, quem está tomando decisões sobre o futuro da inteligência artificial quer uma máquina que faça tudo o que um ser humano faz, sem precisar de descanso, de salário ou de benefícios. Surfistas ou privilegiados, como nomeados no texto anterior, estão no mesmo barco.

O exemplo que dei dos aplicativos de banco e catracas automatizadas de ônibus são ensaios mais singelos desta mudança. O banco não fecha (a rede de caixas automáticos mais famosa do país chama-se 24 Horas) e o transporte coletivo deixa de circular porque ainda temos um motorista de carne e osso guiando o veículo. Faz sentido sugerir que motoristas de coletivos não serão substituídos porque sabem dar bom-dia e tratam bem os passageiros da sua linha?

Em 2019, um ônibus autônomo desenvolvido nos EUA começou a circular na esplanada dos ministérios no Distrito Federal (Correio Braziliense, 29/07/2019). A Marcopolo, indústria brasileira que tem fábrica no ES, anunciou seu ônibus autônomo em 2023 (Estadão, 15/06/2023).

Essa substituição parece mais provável e menos protegida pelas habilidades leves que, por exemplo, o trabalho do futuro advogado? O que acontece é que a chegada da inteligência artificial jurídica, que não tem salário e não tira férias, é uma questão de tempo, de interesse econômico e político, não de criatividade e empatia.

Ainda no universo do direito, dois episódios merecem menção: o Superior Tribunal de Justiça (STJ) noticiou, ainda em 2021, que “cerca da metade dos tribunais brasileiros possui projetos de inteligência artificial operantes ou em desenvolvimento”. Essas tecnologias identificam o assunto de processos, extraem referências legislativas e jurisprudências dos acórdãos, distribuem processos entre ministros e identificam controvérsias jurídicas.

Morde e assopra — IA em (quase) todos os processos. O STJ anunciou, em 2021, o uso de IA em diversos níveis do funcionamento do judiciário. Em outra direção, matéria da Forbes, de abril de 2023, sobre o advogado multado por utilizar ChatGPT em petição ao TSE.

Em uma situação menos aberta à novidade, o TSE multou um advogado por ter elaborado uma petição (“fábula”, nas palavras do ministro) utilizando ChatGPT, indicando que a disponibilidade raramente é o fator que define se a tecnologia será adotada ou não.

IA encarnada e dançarina não quer guerra com ninguém.

Temos outros exemplos mais problemáticos, como o dos robôs-cachorros simpáticos e dançarinos, que se transformaram em agentes para a patrulhar a fronteira entre México e EUA. A promessa é de mais segurança para os agentes que atuam na região “inóspita”.

IA encarnada e atiradora quer guerra com todo mundo.

O doguinho robô desarmado custa cerca de USD 75 mil e definitivamente ainda não tem habilidades leves para ser empático com quem tenta entrar nos EUA ilegalmente, em busca de uma vida melhor. Novamente, o catalisador da mudança tem outra origem e interesses, como podemos observar na recente atualização dos regimentos da Open AI: a empresa poderá fazer acordos com os militares, ainda que o uso das tecnologias em armas esteja proibido. A definição pouco precisa de “arma” é o foco do problema, pois as relações da área de segurança pública em geral com a IA são preocupantes, essencialmente porque os discursos do medo e da insegurança legitimam excessos e fomentam mudanças arriscadas nos marcos legais vigentes.

As definições de “arma” foram atualizadas há décadas.

A questão mais ampla desta série de artigos conecta androides e agentes inteligentes da ficção, robôs aspiradores, assistentes pessoais, doguinhos-robô armados, veículos autônomos, terminais de autoatendimento e advogados-pilotos-de-ChatGPT: o processo contínuo, irreversível e acelerado de automação indiscriminada do trabalho humano, promovido por interesses econômicos.

O ChatGPT não é a grande ameaça, apenas mais uma etapa deste processo que afeta tudo e todos, porém em velocidades distintas. As tarefas assíncronas e desencarnadas, nas quais o ser humano consegue corrigir os rumos das respostas dos sistemas que rodam nos dispositivos computacionais onipresentes já se estabeleceram. Entre elas estão a geração e reconhecimento de imagens, produção de textos (de monografias a petições judiciais), as traduções e outras “facilidades” decorrentes do aprimoramento dos modelos de linguagem. O reconhecimento biométrico está no pacote, funcionando a todo vapor, com todos os problemas denunciados.

Tarefas cognitivamente mais situadas, que demandam que os sistemas estejam no ambiente e o afetem diretamente, fazendo uso encarnado de diversas modalidades perceptivas, permanecerão protegidas por enquanto. Sim, temos carros autônomos fazendo muita besteira e ainda inseguros, mas os aspiradores de pó e robôs patrulheiros de fronteira parecem consolidados. Nossa fascinação pelo trabalho de empresas como Boston Dynamics decorre precisamente dessas aproximações graduais a algo que parece conosco em ação, no tempo e no espaço. A IA desejada pelos evangelistas “desaparece” no ambiente, se integrando à rotina das pessoas como se fosse parte da vida, tornando-se um de nós.

Se eu puder arriscar alguma previsão sobre o salvo-conduto temporário contra a IA, apostaria nas tarefas que dependem intensamente do corpo, em que as habilidades necessárias para resolver o problema não sejam simplesmente decisórias (lembre-se do Akinator), ou estritamente fundadas em capacidades linguísticas (ChatGPT e LLMs similares). Me refiro a qualquer contexto em que as regras não estão bem definidas e nos quais não é possível estereotipar os comportamentos que levam à conclusão da tarefa, principalmente se envolvem o desempenho voluntário do agente no tempo e no espaço. Uma hora a IA também dará conta disso, só não será logo.

Vídeo que explica o funcionamento de uma loja de autosserviço, sem funcionários.

As habilidades leves estão entrelaçadas a estes cenários mais difíceis de passarem pelo processo de automação, mas não são suficientes para impedi-lo. Temos, como último exemplo, lojas de autosserviço onde se pode fazer compras sem nenhuma interação com seres humanos. Ainda assim, estamos muito distantes da situação equivalente de se fazer compras no mercadinho do bairro. As habilidades leves do trabalhador desses estabelecimentos são fundamentais no conjunto da operação do negócio, que ainda é pautado pelo contato pessoal e familiaridade, mesmo que isso signifique preços mais elevados.

Para concluir, me parece curioso que, na era das habilidades leves como resposta aos desafios da IA, a loja inteligente seja parceira de marcas pouco empáticas.

Textos desta série:

  1. Soft skills não salvarão seu emprego da IA
  2. A luta pelo diferencial no mercado de trabalho
  3. ChatGPT não é o seu nêmesis

Índice do blog ou falar comigo sobre este texto