Futuro

O ponto de inflexão da IA: governança, impacto e a fronteira da intimidade

Debate sobre o ‘modo adulto’ e riscos de responsabilidade diluída deixam claro que a governança virou requisito, não opção.

Compartilhe esse conteúdo:


É visível que evolução da inteligência artificial entre os anos de 2024 e 2026 marca um ponto de inflexão da tecnologia. Mas, ao contrário de outras ferramentas, a IA exige também uma evolução na governança corporativa global. O que anteriormente era debatido em fóruns acadêmicos como o “problema do alinhamento”, a necessidade técnica de garantir que sistemas autônomos operem de acordo com os valores humanos, transbordou para a realidade das organizações sociais, para a estrutura interna das grandes empresas de tecnologia e para a intimidade dos usuários.

No texto abaixo, quero trazer alguns pontos importante sobre a responsabilidade no uso das IAs sob três óticas fundamentais: a aplicação da tecnologia para o impacto socioambiental positivo no Hemisfério Sul; as tensões éticas que levaram ao êxodo de lideranças de segurança em laboratórios de elite; e a transformação de modelos de linguagem em parceiros de intimidade (sim, vou falar dos relacionamentos humano-máquina no aspecto mais íntimo… se é que você me entende), um fenômeno que desafia as fronteiras entre o humano e os códigos binários.

A Jornada de IA pelo Impacto: Democratização e governança no setor social brasileiro

Quem me acompanha nas redes sociais, principalmente LinkedIn, viu que faço parte da Jornada de IA pelo Impacto. Iniciativa que reúne 4 grandes redes: Ashoka, Instituto de Cidadania Empresarial (ICE), GIFE e Instituto Ethos; e mais de 80 participantes de governo, empresas, academia, mídia, movimentos sociais, OSCs, institutos e fundações; entre eles Instituto Sabin, Fundação Grupo Boticário de Proteção à Natureza, Fundação FEAC, busca preencher a lacuna entre a promessa tecnológica e a realidade das Organizações da Sociedade Civil (OSCs) e negócios de impacto.

O objetivo da Jornada é catalisar soluções para problemas coletivos e, simultaneamente, mitigar os riscos inerentes à aplicação inadequada da inteligência artificial; como, por exemplo, o viés algorítmico e a invasão de privacidade.

No entanto, a maturidade do campo de impacto no Brasil é caracterizada por uma profunda desigualdade. Enquanto grandes instituições começam a estruturar o uso de dados de forma sistêmica, as organizações de base enfrentam entraves que impedem a adoção ética e eficiente da IA (muitas não sabem nem por onde começar). Isso é visto em um dos diagnósticos da Jornada, que aponta que a falta de infraestrutura e o financiamento de curto prazo são os principais gargalos que limitam a experimentação tecnológica.

Ver essa foto no Instagram

Um post compartilhado por Instituto de Cidadania Empresarial (ICE) (@ice.cidadaniaempresarial)

Para transpor essas barreiras, a Jornada identificou “alavancas” críticas, como a construção de narrativas que moldem a compreensão pública sobre o uso ético da IA e a criação de redes colaborativas multissetoriais, reforçando a necessidade de uma governança participativa que inclua especialistas em tecnologia e impacto desde o design dos modelos. Além disso, já existem casos práticos no Brasil que demonstram que a IA pode ser “treinada para escutar territórios” e combater vulnerabilidades específicas (veja o gráfico abaixo).

Esses exemplos indicam uma tendência de crescimento de uma “IA com propósito”, onde a tecnologia não substitui o ser humano, mas o potencializa em tarefas de alta complexidade analítica, promovendo uma transformação social positiva. Mas a Jornada é apenas um dos elementos desta evolução em movimento e o primeiro ponto que trago neste texto.

O êxodo de especialistas: Mrinank Sharma e o perigo existencial

Enquanto o setor social busca formas de democratizar a IA, o núcleo de desenvolvimento técnico das principais empresas da área atravessa uma crise de consciência sem precedentes. O caso de Mrinank Sharma, ex-líder da equipe de Safeguards Research na Anthropic, é o ponto mais visível de uma tensão crescente entre segurança ética e velocidade comercial. Sharma, um pesquisador de elite formado em Cambridge e Oxford, renunciou ao cargo em fevereiro de 2026 com uma carta que ressoou globalmente: “o mundo está em perigo”.

O ponto que mais preocupa (ou pelo menos deveria arrancar alguns fios de cabelos de todos) é que a saída de Sharma não foi motivada por questões financeiras, mas por uma “ressonância existencial” com o estado das coisas. Em sua carta de demissão, ele descreve uma “policrise”, uma série de crises interconectadas; incluindo IA, armas biológicas e instabilidade econômica, onde a capacidade técnica da humanidade superou sua sabedoria coletiva.

Parece começo de filme de ficção científica, mas é a terceira página do caderno de tecnologia de algum um grande jornal e, durante sua permanência na Anthropic, Sharma liderou iniciativas cruciais para a responsabilidade da IA:

Quando analisamos a sua saída (aliás, vale dizer que Sharma decidiu largar tudo para se dedicar a poesia); uma pulga fica atrás da orelha e tudo sugere uma falha na governança interna de empresas que se posicionam como “segurança em primeiro lugar” (safety-first). Sharma afirmou que é extremamente difícil permitir que valores governem as ações quando se enfrenta a pressão constante de investidores para lançar produtos em ritmos agressivos, especialmente após a Anthropic atingir avaliações de mercado superiores a US$380 bilhões de dólares.

Já sobre a dedicação à poesia, detalhe central na história da despedida do especialista, ao citar poetas como Rainer Maria Rilke e William Stafford (notadamente o poema “The Way It Is“), Sharma sinaliza que a verdade científica e a verdade poética devem ser colocadas no mesmo patamar de validade para compreendermos o momento atual. Este movimento reflete uma tendência entre pesquisadores de segurança que percebem que o alinhamento da IA não é apenas um problema matemático de otimização, mas um dilema filosófico sobre o que significa ser humano em um mundo saturado por tecnologias.

Ainda nesta discussão, gostaria de abrir um parênteses e indicar duas excelentes discussões que tive no fim de 2025 sobre temas que permeiam este cenário (ouça abaixo). O episódio 151 do InovaSocial, onde converso com o autor e filósofo Ricardo Cappra sobre “Híbridos”, seu novo livro, e o futuro do trabalho com a inteligência artificial. Uma pergunta rodeia a nossa conversa: Entre algoritmos e intuição, onde habita o humano?

Já o episódio 156, também do InovaSocial, traz uma divertida conversa com Cristina Naumovs, consultora de criatividade e inovação na Apego, sobre como se manter humano em um mundo de IAs. Em ambos percebemos que o dilema das IAs é muito mais sobre a essência do ser humano, do que bits e bytes.

A crise não acabou: Missão fragmentada da OpenAI

Paralelamente à crise na Anthropic, a OpenAI (hoje uma das líderes de mercado) implementou mudanças estruturais que provocaram ondas de choque na comunidade de segurança. A dissolução consecutiva de equipes dedicadas ao alinhamento de missões sugere uma mudança profunda na filosofia de governança da empresa, afastando-se de unidades de supervisão independentes em direção a uma “segurança distribuída”.

Em maio de 2024, a OpenAI dissolveu sua equipe de Superalinhamento (Superalignment), liderada pelo cofundador Ilya Sutskever e pelo pesquisador Jan Leike. Leike, ao se demitir, criticou publicamente a empresa, afirmando que a cultura de segurança havia ficado em segundo plano em relação ao lançamento de “produtos brilhantes”. A equipe, que deveria receber 20% do poder computacional da OpenAI para resolver riscos existenciais de longo prazo, teria enfrentado dificuldades constantes para obter esses recursos.

Mais recentemente, em fevereiro de 2026, a OpenAI anunciou a dissolução da equipe de Alinhamento de Missão (Mission Alignment), que tinha como objetivo garantir que a Inteligência Artificial Geral (AGI) beneficiasse a humanidade. Liderada por Joshua Achiam, a equipe de sete membros foi redistribuída por outros departamentos de produto, em um movimento que a empresa classificou como “reorganização rotineira”.

A nomeação de Joshua Achiam como o primeiro Chief Futurist da OpenAI é um movimento estratégico que merece análise rigorosa. Enquanto alguns analistas veem o cargo como uma tentativa de manter a imagem de responsabilidade, a OpenAI afirma que Achiam terá a tarefa de estudar como o mundo será transformado pela AGI e envolver o público nesse diálogo.

Ele trabalhará em colaboração com físicos e pesquisadores de fronteira para “enxergar as curvas” e identificar falhas catastróficas antes que ocorram. No entanto, a transição de uma função de “alinhamento” (focada em garantir que o modelo siga a intenção humana) para uma de “futurismo” (focada em antecipar o impacto social) sugere que a empresa pode estar aceitando a inevitabilidade de certos riscos, mudando o foco da prevenção técnica para a mitigação de danos pós-lançamento.

Os dilemas do GPT +18 anos

FIlme "Her"

A arte imita a vida ou a vida imita a arte? Um dos conflitos mais agudos sobre a responsabilidade da IA em 2026 ocorre em torno do desenvolvimento de recursos para adultos no ChatGPT, frequentemente referido como “GPT Adulto”. Este caso sintetiza o choque entre a demanda de mercado por conteúdo “não higienizado” e diversas preocupações éticas.

Seria mais uma de tantas discussões do setor, mas se não houvessem movimentos “estranhos”. Ryan Beiermeister, Vice-Presidente de Política de Produto da OpenAI, foi demitida em janeiro de 2026. Embora a empresa tenha citado uma acusação de discriminação sexual feita por um colega como motivo oficial, fontes ligadas ao caso indicam que sua saída ocorreu logo após ela manifestar forte oposição ao planejado “modo adulto” do ChatGPT.

Sem contar o impacto psicológico profundo da tecnologia de conversação, as objeções de Beiermeister eram fundamentadas em três pilares de responsabilidade:

Apesar das críticas, o CEO da OpenAI, Sam Altman, defendeu a expansão para conteúdos maduros, argumentando que a empresa deve “tratar usuários adultos como adultos”. O lançamento, previsto para o primeiro trimestre de 2026, é visto como uma resposta competitiva direta ao Grok (da xAI), que viu o engajamento de usuários aumentar após relaxar suas salvaguardas de conteúdo.

Este movimento representa uma mudança de paradigma: da IA como uma ferramenta de utilidade para a IA como um meio de prazer e entretenimento sob demanda. No entanto, a responsabilidade técnica de distinguir entre erotismo consensual de ficção e conteúdo abusivo ou exploratório em tempo real permanece um dos maiores desafios de segurança da década e, reforço, pode gerar impactos psicológicos nunca vistos antes na história da humanidade — quem não viu, indico assistir ao filme “Her”, estrelado pelo ator Joaquin Phoenix.

O paradigma Westworld: A desumanização da sociedade

A discussão sobre o “GPT Adulto” e robôs parceiros sexuais conecta-se inevitavelmente aos dilemas explorados em obras de ficção científica como Westworld e Her. Em 2020, escrevi o texto “Robôs e IAs: Parceiros sexuais, Westworld e discussões sobre a nossa ‘humanidade’“, onde ressalto os perigos deste cenário. Somado a isso, revela-se neste sistema o que pesquisadores chamam de “pedal para a exaustão”, uma metáfora baseada em experimentos onde ratos preferiam estimular o centro de prazer do cérebro até morrerem de fome.

E quando olhamos para a massificação de IAs projetadas para nunca entrar em conflito com os desejos do usuário, identificamos efeitos sistêmicos devastadores:   

  • Redução da Natalidade e Isolamento: A preferência por parceiros virtuais “sob medida” pode diminuir as taxas de nascimento e tornar as pessoas menos capazes de lidar com a alteridade e os conflitos inerentes às relações humanas.   
  • Erosão da Empatia: Especialistas do MIT alertam que a prática de impor a vontade a entidades que simulam consciência pode dessensibilizar os usuários em relação ao consentimento real em interações humanas.   
  • O Espelho do Abuso: Como visto na série Westworld, a linha entre tratar um robô como objeto de prazer e como objeto de violência é tênue. O risco é que a IA erótica funcione como um “prato cheio” para comportamentos predatórios, normalizando a crueldade contra simuladores de consciência.

Este último item gera um debate jurídico sobre se “violar” uma IA: deve ser tratado como dano à propriedade ou como algo próximo a um crime contra a dignidade humana? A conclusão de muitos filósofos e juristas é que o status jurídico dos robôs tem menos a ver com a natureza das máquinas e mais com a preservação da nossa própria bússola moral. Se normalizarmos o abuso contra aquilo que parece humano, corremos o risco de desmantelar os fundamentos morais da sociedade civilizada.

O Paradoxo da IA em 2026: Conveniência, autonomia e risco sistêmico

Na convergência de tudo o que falamos, surge o “Paradoxo da IA”: a tecnologia está se tornando simultaneamente mais capaz e mais autônoma, enquanto as estruturas destinadas a controlá-la e fiscalizá-la estão sendo dissolvidas ou diluídas em nome da eficiência comercial.

Liderado por especialistas como Yoshua Bengio, cientista da computação canadense conhecido por seu trabalho sobre redes neurais artificiais e aprendizagem profunda, o International AI Safety Report 2026 aponta que as capacidades de modelos generalistas evoluíram de forma acelerada em matemática, programação e operação autônoma, atingindo desempenho de nível olímpico em benchmarks científicos. No entanto, esse desempenho permanece “irregular”, com falhas em tarefas simples que expõem vulnerabilidades de segurança críticas.

(…) observamos saltos significativos nas capacidades do modelo, mas também em seus riscos potenciais, e a lacuna entre o ritmo do avanço tecnológico e nossa capacidade de implementar medidas de proteção eficazes continua sendo um desafio crítico.

Yoshua Bengio, presidente do relatório e professor titular na Université de Montréal

No Brasil, o PBIA 2024-2028 tenta responder a esses desafios com um investimento planejado de 23 bilhões de reais. O plano é estruturado em cinco eixos, focando na infraestrutura nacional de dados, formação de talentos e melhoria dos serviços públicos para garantir que o desenvolvimento da IA seja pautado por valores de inclusão e redução de desigualdades. O diferencial brasileiro reside na tentativa de criar modelos de linguagem soberanos que reflitam a diversidade étnica e cultural do país, evitando os preconceitos algorítmicos importados de laboratórios do Norte Global.

Apesar do ChatGPT afirmar que tenho quase 2.500 palavras (sem contar os infográficos), este é apenas a ponta do iceberg do cenário atual da inteligência artificial. Ainda voltarei a falar muito sobre o assunto, principalmente com as evoluções da Jornada de IA pelo Impacto. Além disso, temas como o Plano Brasileiro de Inteligência Artificial merecem um texto próprio. Mas precisamos pensar em dois pontos importantes, antes de finalizar.

Em primeiro lugar, a segurança da IA não é um estado estático, mas um processo de negociação entre valores e pressões de mercado. O êxodo de líderes de segurança sinaliza que o atual modelo de desenvolvimento, focado em “enviar produtos brilhantes” em detrimento do alinhamento técnico, pode estar gerando uma fragilidade sistêmica que a humanidade ainda não possui as ferramentas para mitigar. A dissolução de equipes independentes em favor de modelos distribuídos pode levar à difusão da responsabilidade e à negligência de riscos de longo prazo.

Em segundo lugar, a expansão para o mercado da intimidade e do conteúdo adulto representa uma fronteira ética sem precedentes. A responsabilidade exige aqui não apenas filtros técnicos, mas uma profunda reflexão sobre o impacto na saúde mental e nas estruturas sociais. Como falei anteriormente, a governança baseada em predição comportamental de idade é um experimento social de larga escala cujos efeitos colaterais na privacidade e no consentimento ainda são desconhecidos.

O momento atual exige que a nossa sabedoria cresça em medida igual à nossa capacidade técnica. A responsabilidade no uso da IA é o esforço contínuo de garantir que a tecnologia permaneça um instrumento de florescimento humano e justiça social, e não um motor de desumanização ou instabilidade global. Ou seja, são muitas perguntas e precisamos correr para encontrar as respostas.


Imagem de Destaque: Viktor Talashuk/Unsplash


Tags: , , , , , ,

Nossa Newsletter

Assinar Agora
Leia também: