A IA não é neutra. Quando alimentada por dados enviesados, pode reforçar desigualdades. Usar IA com responsabilidade exige consciência ética, supervisão e alfabetização crítica.
Home » A ilusão da neutralidade da IA
A IA não é neutra. Quando alimentada por dados enviesados, pode reforçar desigualdades. Usar IA com responsabilidade exige consciência ética, supervisão e alfabetização crítica.
A Inteligência Artificial (IA) está cada vez mais presente no nosso cotidiano, oferecendo soluções que prometem agilidade, eficiência e personalização [1]. Seja no entretenimento, como em jogos e recomendações em plataformas de streaming, ou na automatização de atividades em diferentes setores corporativos, seu uso avança rapidamente. No entanto, há um ponto importante que precisa ser compreendido por todos que interagem com essa tecnologia: a inteligência artificial não é neutra [2, 3].
Modelos de IA baseados em aprendizado de máquina (machine learning) aprendem a partir de grandes volumes de dados. Quando esses dados refletem distorções sociais, como preconceitos ou desigualdades, os sistemas tendem a reproduzi-las [4, 5]. Esse fenômeno, conhecido como viés algorítmico, acontece não apenas por causa dos dados utilizados, mas também pelas decisões dos desenvolvedores sobre como o sistema deve funcionar, o que ele deve considerar importante ou irrelevante, e quais requisitos devem guiar suas previsões. Como consequência, a IA pode gerar resultados injustos ou desfavoráveis para certos grupos, amplificando preconceitos relacionados à religião, gênero, raça ou cultura [6].
Por exemplo, pesquisas indicam que algoritmos de inteligência artificial podem fornecer previsões mais precisas para um grupo de estudantes do que para outros, simplesmente com base em atributos demográficos como gênero [7, 8]. Da mesma forma, algoritmos usados em diagnósticos médicos, como os voltados para detecção de câncer de pele, tendem a ter maior precisão em peles claras, uma vez que foram treinados majoritariamente com esse tipo de dado [9]. Essa limitação evidencia desigualdades estruturais nos dados utilizados e ressalta a necessidade de abordagens mais inclusivas e rigorosas no desenvolvimento desses sistemas. Como consequência, pessoas de pele mais escura podem receber diagnósticos imprecisos ou tardios, comprometendo a equidade no acesso à saúde e ampliando disparidades já existentes. Em um contexto de educação, esse viés pode ser transmitido aos alunos, moldando percepções e decisões baseadas em dados injustos.
No setor corporativo, os riscos são igualmente significativos. Algoritmos usados em processos seletivos, análise de desempenho ou decisões estratégicas podem reforçar desigualdades já presentes nas organizações. Há casos documentados em que sistemas automatizados de recrutamento priorizaram currículos masculinos devido a padrões históricos nos dados de contratação, desvalorizando automaticamente perfis femininos, especialmente em áreas técnicas [10]. Sistemas de análise preditiva, usados para avaliar riscos, produtividade ou comportamento de consumo, também podem tomar decisões enviesadas, impactando negativamente a reputação da empresa e comprometendo iniciativas de diversidade, inclusão e justiça organizacional.
Estudos em processamento de linguagem natural (NLP) revelam viés na interpretação de feedbacks, o que pode reforçar disparidades em avaliações de desempenho e comunicação interna [11, 12]. Há evidências de que algoritmos analisam cartas de recomendação de forma distinta dependendo do gênero ou da origem étnica do candidato, revelando como o conjunto de dados pode conduzir a um tratamento desigual entre grupos [13]. Em contextos empresariais, isso pode afetar promoções, acesso a treinamentos e decisões de liderança, com impactos diretos no clima organizacional e no desenvolvimento de talentos.
Outro ponto crítico é a forma como os sistemas de inteligência artificial tratam a linguagem. Grandes modelos de linguagem (LLMs), como os utilizados para geração automática de texto, são alimentados com dados públicos retirados da internet, com muitos estereótipos, desinformação e representações parciais da realidade. Esses sistemas podem reproduzir padrões de forma sutil, reforçando visões distorcidas sobre grupos sociais ou culturais [2, 14]. Como suas respostas costumam parecer coerentes e bem estruturadas, há um risco de que usuários assumam essas informações como verdades, sem uma avaliação crítica [15].
Embora a inteligência artificial possa gerar respostas plausíveis, os usuários precisam exercitar o discernimento e não aceitar inquestionavelmente todo o conteúdo gerado, pois a ferramenta pode ser imprecisa ou superficial [16]. Essa confiança excessiva pode gerar impactos relevantes na formação do conhecimento. Quando isso acontece em ambientes educacionais, por exemplo, professores e alunos podem absorver sem perceber conceitos errôneos, perpetuando ciclos de desinformação. Sistemas treinados com dados que carregam desigualdades sociais tendem a internalizá-las como padrões verdadeiros, perpetuando disparidades em suas previsões [17].
Além disso, o uso excessivo e passivo da inteligência artificial pode ser prejudicial ao desenvolvimento da criatividade e do pensamento crítico, levando à dependência e à superficialidade, ou ao que é chamado de dívida cognitiva [18]. Portanto, é muito importante ensinar os usuários a pensar criticamente sobre as informações recebidas das fontes de IA, como parte de uma alfabetização em IA. Essa habilidade permite questionar a origem dos dados, compreender as limitações dos modelos e avaliar melhor a confiabilidade das respostas geradas [6].
O uso responsável da inteligência artificial exige não apenas conhecimento técnico, mas também consciência ética, sensibilidade social e disposição para revisar continuamente processos e resultados.
Tanto na educação quanto no ambiente corporativo, adotar a inteligência artificial requer atenção constante à equidade, à transparência e à governança [19]. O risco não está apenas em erros técnicos, mas na normalização de decisões automatizadas que escapam à revisão humana [20]. A ausência de explicabilidade em muitos algoritmos, que operam como verdadeiras caixas-pretas, dificulta a identificação de causas de erros ou injustiças [21]. A inteligência artificial explicável (XAI) busca aumentar a confiança ao tornar os algoritmos compreensíveis, permitindo que os usuários entendam, confiem e gerenciem melhor os sistemas de IA. Isso reforça a necessidade de supervisão contínua, responsabilização clara e adoção de práticas de auditoria algorítmica [3].
A IA deve ser vista como uma uma ferramenta que potencializa as capacidades humanas, liberando tempo e recursos para atividades mais criativas e complexas [16]. É fundamental que os usuários desenvolvam uma alfabetização em IA, capaz de prepará-los para identificar, questionar e mitigar vieses ou alucinações presentes nos sistemas automatizados. A responsabilidade pelo conteúdo gerado continua sendo humana. Por isso, seu uso deve ser guiado por princípios éticos e voltado ao aprimoramento contínuo em benefício do bem comum [22].
Professor Associado na Universidade Federal de São Paulo (UNIFESP), doutor em Engenharia Elétrica e pós-doutor em Tecnologias Interativas, com mais de 15 anos de experiência em ensino, pesquisa e desenvolvimento de tecnologias emergentes. É especialista em Realidade Estendida (XR) e Inteligência Artificial (IA). Como pesquisador e orientador de mestrado e doutorado, lidera projetos que conectam academia e mercado, com foco em inovação e impacto social. Atua também como palestrante, consultor e colaborador internacional do INESC-ID/IST da Universidade de Lisboa, compartilhando estratégias e insights sobre o uso ético e eficaz de IA e XR em diferentes contextos.
O futuro acontece aqui: esteja entre os primeiros a receber insights, tendências e oportunidades que moldam o mercado.
Receba em primeira mão os movimentos do mercado da inteligência artificial
em nossa newsletter com nossa curadoria e conteúdos autorais: notícias mais relevantes,
destaques da semana, análises de nossos especialistas e colunas recomendadas.
+15.587 profissionais já assinaram