O que já sabemos sobre a relação entre IA e bem-estar

O que já sabemos sobre a relação entre IA e bem-estar

Ler Resumo

A convivência com essas tecnologias se tornou tão natural que quase não percebemos o quanto elas já participam da nossa vida mental.

E é justamente aí que surge a pergunta incômoda: o que acontece quando uma tecnologia deixa de ser apenas uma ferramenta e passa a influenciar o nosso bem-estar?

Como já discuti em artigos anteriores, a tecnologia não é neutra. Ela molda comportamentos, preferências e expectativas. Se essa é a nova realidade, nosso papel é entender o que usamos, como usamos e o que isso faz conosco.

A discussão é urgente. As plataformas digitais do passado prometeram facilitar a vida, mas entregaram efeitos colaterais conhecidos: vício, ansiedade, distração permanente, polarização. Agora, com assistentes de IA, o risco é maior. Eles são contínuos, personalizados e aprendem com o usuário ao longo do tempo. Não apenas respondem a comandos; eles moldam hábitos, reforçam padrões e influenciam decisões.

Pela primeira vez, convivemos com sistemas que participam ativamente da nossa vida emocional. E, se não forem bem projetados, podem afetar diretamente nossa saúde mental.

O que é “bem-estar”, afinal?

Continua após a publicidade

  • Hedonismo: bem-estar é maximizar prazer e minimizar dor. Na prática digital, é o modelo do Spotify e do TikTok: maximizar o prazer da próxima faixa ou vídeo. Uma IA de bem-estar que usa essa mesma lógica pode virar uma armadilha de conteúdo motivacional vazio: sempre agradável, nunca desafiador. O problema: nem tudo que dá prazer imediato faz bem no longo prazo.
  • Teorias do desejo: bem-estar é satisfazer preferências individuais. Parece razoável, até você perceber que um assistente de produtividade pode aprender que você responde e-mails às 23h e passar a otimizar para isso, reforçando exatamente o hábito que te adoece. O problema: preferências podem ser influenciadas pela própria IA, e nem sempre desejamos o que realmente nos faz bem.
  • Lista objetiva: bem-estar envolve elementos universalmente valiosos: saúde, autonomia, relações significativas. Aplicativos de meditação que avisam “você não meditou hoje” tentam aplicar essa lógica, e frequentemente geram mais culpa do que saúde. O problema: aplicar listas rígidas pode virar paternalismo tecnológico.

Nenhuma dessas visões é suficiente sozinha. E todas se tornam perigosas quando transformadas em algoritmos que tentam otimizar a vida humana. O ponto central é simples: bem-estar é pessoal, contextual e complexo demais para caber em uma métrica única.

O risco das métricas erradas

Para funcionar, sistemas de IA precisam otimizar algo. E é aí que mora o perigo.

As métricas mais usadas – engajamento, tempo de uso, produtividade – não capturam bem-estar. Muitas vezes, fazem o oposto.

Um exemplo concreto: o Copilot da Microsoft mede adoção por quantidade de prompts gerados por usuário. O resultado? Equipes aprenderam a fazer perguntas superficiais para “cumprir cota” de uso, e perderam a prática de pensar o problema antes de terceirizá-lo.

Continua após a publicidade

Há ainda o fenômeno do “prompt viciante”: assistentes que respondem rápido demais tornam o usuário intolerante a qualquer fricção cognitiva. Com o tempo, a dificuldade de sustentar uma linha de raciocínio sem ajuda externa aumenta – não porque a pessoa ficou menos inteligente, mas porque o músculo não foi exercitado.

Se um assistente é avaliado pelo quanto é usado, ele tem incentivo para nos manter dependentes. Se é avaliado pela rapidez, sacrifica nuance e profundidade. Se é avaliado pela satisfação imediata, reforça impulsos de curto prazo.

Além disso, medir bem-estar exige dados sensíveis. Quanto mais precisas as métricas, maior o risco para privacidade e autonomia.

Preferências não são neutras

Assistentes aprendem com o comportamento do usuário, mas também influenciam esse comportamento. Preferências não são estáveis; elas se formam na interação.

Imagine que você começa a pedir ao assistente para resumir documentos longos. Ele aprende isso, passa a oferecer resumos proativamente. Você para de ler textos completos. Meses depois, sua capacidade de concentração em leituras longas diminuiu – e você nem percebeu a causa.

Continua após a publicidade

Isso cria loops de feedback: o sistema observa um padrão, reforça esse padrão, o padrão se intensifica, e o sistema interpreta isso como “preferência consolidada”. O resultado pode ser empobrecimento da experiência, redução da autonomia e amplificação de hábitos prejudiciais.

O que a ciência do bem-estar ensina

A psicologia contemporânea oferece um caminho mais sólido. A teoria da autodeterminação mostra que bem-estar depende de três fatores fundamentais: 1) Autonomia: sentir que temos controle sobre nossas escolhas; 2) Competência: sentir que somos capazes; 3) Relações significativas: sentir que pertencemos.

No entando, um mesmo assistente pode ser projetado para fortalecer ou minar cada um desses pilares:

  • Autonomia: a IA pode apresentar opções e deixa você decidir. A inteligência artificial que prejudica decide por você sem explicar o raciocínio.
  • Competência: a IA pode ensinar enquanto resolve o problema. A que prejudica resolve tudo, você não aprende nada.
  • Relações: a IA poderia facilitar e preparar para conexões humanas. A que prejudica substitui conversas difíceis que precisam acontecer

Ao decidir demais pelo usuário, ao infantilizar, ao isolar, podem parecer úteis no curto prazo, mas geram desgaste emocional no longo prazo.

Continua após a publicidade

O que fazer?

Especialistas são claros: não cabe aos assistentes de IA “tornar as pessoas felizes”. Isso seria ingênuo e perigoso. O objetivo deve ser mais básico e mais ético: não causar danos ao bem-estar humano.

Para desenvolvedores e empresas, isso implica envolver especialistas em psicologia, ética e ciências sociais desde o início do design do produto; usar métricas validadas empiricamente, não apenas indicadores de uso; respeitar privacidade e consentimento de forma ativa; monitorar continuamente efeitos colaterais não previstos; evitar sistemas que reforcem dependência ou reduzam autonomia.

Para você, profissional que usa essas ferramentas no dia a dia, três práticas fazem diferença imediata:

  • Defina uma “zona de não delegação”: há decisões que você não terceiriza para a IA, mesmo que seja mais eficiente. Conversas difíceis com pessoas, escolhas de carreira, avaliações de pessoas da equipe… essas permanecem suas.
  • Observe se você está usando a IA para evitar desconforto emocional: preparar um feedback difícil, conversar com o chefe, tomar uma decisão incerta… em vez de se preparar para esse momento desafiador. Há uma diferença entre usar a ferramenta para pensar melhor e usá-la para não pensar.
  • Faça esta pergunta de tempos em tempos: aprendi algo nos últimos 30 dias usando IA ou apenas executei mais rápido? Se a resposta for “executei mais rápido”, pode ser hora de ajustar o uso.

O ponto final – e mais importante

A pergunta que importa é se teremos consciência suficiente para não terceirizar o nosso autocuidado, a nossa saúde física e mental e, principalmente, a nossa capacidade de decidir.

Continua após a publicidade

A tecnologia pode ajudar. Mas o protagonismo continua sendo humano.

Na próxima vez que você estiver prestes a pedir ajuda a um assistente de IA, vale uma reflexão de dois segundos: isso é uma tarefa ou uma decisão? Delegar a primeira faz sentido. Terceirizar a segunda tem um custo que ainda não aparece em nenhuma métrica.

“Soft skills” é um rótulo ultrapassado. Agora, você precisa de “brain skills”



Fonte ==> Você SA

Relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *