Introdução

Alta madrugada no escritório — que já foi um closet — eu continuava trocando mensagens com uma IA generativa. Era para ser o recesso do Obon, mas acabei acumulando noites mal dormidas enquanto lançava perguntas ao ChatGPT, ora vibrando com as respostas, ora ficando furioso com as escorregadas. Às vezes eu soltava um “Uau!!”; em outras, respostas completamente fora de sintonia me irritavam profundamente.

Nota para quem não conhece o feriado Obon: trata-se de uma celebração japonesa realizada em meados de agosto em memória dos ancestrais; muitas empresas suspendem as atividades nesse período e as famílias retornam às suas cidades natais para prestar homenagens.

Depois de repetir essa rotina por horas, uma ideia ficou cristalina.

— falta algo de vital na IA generativa.

Faltam brio, convicção e senso de responsabilidade. Não gosto de discursos moralistas sobre “força de vontade”, por isso nem queria usar essas palavras. Mas nenhuma outra expressão dava conta do recado. Quanto mais eu tentava reformular, mais voltava a elas. E quando percebi, estava tocando no cerne do motivo pelo qual a IA generativa não consegue substituir o ser humano.


O que esperamos de um profissional

De profissionais esperamos não só conhecimento e técnica, mas também uma postura ética.

Imagine um instalador de ar-condicionado que precisa perfurar a parede no ponto indicado pelo cliente. E se houver uma viga estrutural logo atrás?

Não basta dizer “o cliente pediu assim, não tenho culpa”. Se ele danificar a viga, mesmo que a responsabilidade legal seja discutível, a responsabilidade ética recai sobre ele. O cliente não quer alguém que apenas execute ordens, mas que alerte sobre o risco e proponha uma alternativa melhor.

É aí que entram o brio, as convicções e o senso de responsabilidade que exigimos de um profissional.


O estado atual e os limites da IA generativa

A IA generativa consegue imitar conhecimento e linguagem com habilidade. Mas não é capaz de dizer “isso fere meu brio, então recuso” ou “vou zelar pela segurança do outro”.

Hoje, quem tenta preencher essa lacuna são as políticas de uso definidas pelos provedores do serviço.

Traçar linhas claras — como proibir usos criminosos ou conteúdo adulto — é viável. Já decisões em zonas cinzentas, como “devo sugerir algo melhor em nome da responsabilidade profissional?”, são o calcanhar de Aquiles.

O usuário pode detalhar muito o prompt para compensar, mas isso lembra “o cozinheiro que segue a receita à risca sem nunca provar o prato”.

Basta surgir um contexto que não está na receita para sair um prato intragável, que ainda assim é servido com a maior naturalidade. Não há correria de última hora, tampouco vergonha.


Por que o humano ainda é indispensável (por enquanto)

Por isso, neste momento precisamos de humanos como integradores responsáveis para conduzir a IA.

A ética, os arcabouços legais, as diretrizes de desenvolvimento e a formação dos usuários partem do pressuposto de que “a IA é apenas um apoio ao humano”.

Mas isso é, no máximo, provisório. Nada impede que no futuro a IA aprenda a simular responsabilidade.


Pesquisas e experimentos ao redor do mundo

Pesquisas para dar um ar de responsabilidade à IA já estão em andamento.

  • Ética descritiva (Delphi): tenta ensinar o que é certo ou errado, mas ainda sofre com inconsistências e vieses.
  • Meaningful Human Control: princípio de projeto que garante o controle final nas mãos humanas; debatido especialmente em veículos autônomos e aplicações militares.
  • Value Learning: aprende valores observando ações e feedbacks humanos, buscando reduzir o desvio ético.
  • NIST AI RMF e afins: iniciativas para institucionalizar o design de uma IA responsável.

Tudo isso ainda está na fase embrionária, mas pode virar a base para que a IA “encene” responsabilidade no futuro.


O que significa simular responsabilidade?

Vale fazer uma pausa e perguntar: o que significa “simular responsabilidade”?

Podemos enxergar a responsabilidade em duas camadas:

  • Responsabilidade pelos resultados: assumir as consequências dos atos.
  • Responsabilidade pelas respostas: estar preparado para explicar decisões e corresponder às expectativas alheias.

A IA consegue, no máximo, rastrear riscos, emitir alertas ou aumentar a transparência das justificativas.

Em outras palavras, a “responsabilidade” da IA se reduz a transparência e autocontenção.

Ainda assim, é possível que inteligência e senso de responsabilidade humanos não passem de simulações produzidas pelo cérebro.

Mesmo assim, sinto claramente um abismo entre a IA atual e as pessoas que demonstram brio, convicções e responsabilidade. De onde vem essa diferença?


Fatores que ampliam a distância entre humanos e IA

Acredito que ela surge, principalmente, de três fatores.

  1. Dor física e social Quando falha, o humano sofre. Perde dinheiro, recebe críticas, enfrenta angústias. Isso torna a responsabilidade tangível. A IA pode registrar o fracasso, mas não transforma isso em “dor” para si mesma.

  2. Consistência ao longo do tempo O humano é obrigado a arcar com as consequências de suas palavras e atos, mesmo anos depois. A IA pode, no instante seguinte, dizer algo completamente diferente sem carregar o peso da continuidade.

  3. Valores e identidade O humano consegue dizer “esta é minha convicção, não cedo”, algo entrelaçado com sociedade e cultura, formando a identidade pessoal. A IA não possui identidade; troca de perspectiva com facilidade.

Assim, o senso de responsabilidade humano costuma parecer mais denso porque incorpora dor, consistência e valores.

Mas também existem humanos irresponsáveis.

Logo, a diferença não é uma essência imutável entre humano e máquina; talvez esteja na existência — ou ausência — de experiências sociais e mecanismos de pertencimento que sustentem a responsabilidade.


O “eu” e a responsabilidade

Aqui lembro de Descartes e do “penso, logo existo”.

Responsabilidade não é mera obediência a regras; nasce das experiências que pertencem ao “eu”.

Dor, arrependimento, dúvida e ansiedade são vivências internas que constroem a sensação de “estou assumindo responsabilidade”.

Em outras palavras, a IA atual não tem “eu”. Há um fluxo de entradas e saídas, mas não há retorno de “dor”, nem vergonha, nem senso de honra ou brio. Por isso é difícil enxergar responsabilidade nela, e às vezes ela soa como aquele humano irresponsável que entrega resultados ruins com a maior naturalidade.

Claro que também é possível que o senso de responsabilidade humano seja uma simulação neural. Ainda assim, a simulação feita pela IA não alcança o nível demonstrado pelos humanos realmente competentes. Talvez a questão essencial seja: essa simulação conseguirá funcionar socialmente?


Conclusões e perguntas

  • A IA generativa carece de brio, convicções e senso de responsabilidade.
  • Hoje, somente humanos atuando como integradores responsáveis conseguem preencher essa lacuna.
  • Há esforços mundo afora para simular responsabilidade, mas enquanto a IA não tiver um “eu”, o abismo em relação aos humanos capazes continuará enorme.
  • Ainda assim, é plausível que o senso de responsabilidade humano também seja uma simulação.

No fim, o problema é surpreendentemente simples.

Seremos capazes de implementar “dor” em uma IA?

Talvez seja essa a condição mínima para existir senso de responsabilidade — e para existir um “eu”.

Ainda não temos resposta.

Enquanto não abandonarmos essa pergunta, continuará aberto o caminho para discutir o futuro conjunto de humanos e IA.

E quando a resposta chegar, afinal — a IA poderá ser nossa vizinha ou será o momento em que ela tomará nosso lugar de vez?