Ao usar este site, você concorda com a Política de Privacidade e os Termos de Uso.
Aceitar
Edição de NotíciasEdição de NotíciasEdição de Notícias
Notificação Mostrar Mais
Redimensionar FonteAa
  • Início
  • Arapongas
  • Apucarana
  • Região
  • Ocorrência Policial
  • Edições Impressas
Edição de NotíciasEdição de Notícias
Redimensionar FonteAa
  • Início
  • Arapongas
  • Apucarana
  • Região
  • Ocorrência Policial
  • Edições Impressas
Search
  • Início
  • Arapongas
  • Apucarana
  • Região
  • Ocorrência Policial
  • Edições Impressas
Já tem uma conta? Entrar
Siga-nos
Notícias Geral

Quem ensina ética às máquinas e como valores humanos viram código

Publicado em: 26 de janeiro de 2026
Compartilhar
Compartilhar

Quem ensina o certo e o errado às máquinas?

Afinal, quem ensina ética às máquinas? Você confiaria sua vida a uma decisão tomada por uma equação? Pode parecer exagero — até distante — mas já delegamos tarefas complexas a sistemas que aprendem com dados: recomendações médicas, decisões de crédito, triagem de currículos, direção autônoma. Essas decisões carregam valores. A pergunta que surge é simples e assustadora ao mesmo tempo: quem define quais valores estão embutidos nessas máquinas?

Como valores humanos viram código

- Patrocinado -
Ad image

Ao contrário do que muitos imaginam, uma IA não nasce com um senso de certo e errado. Ela aprende. Aprendizagem, no caso de modelos de machine learning, significa ajustar parâmetros para que a saída dos algoritmos corresponda a um objetivo definido pelos seus criadores: maximizar acurácia, reduzir perdas, aumentar cliques, economizar combustível. Esses objetivos técnicos traduzem-se em escolhas — e escolhas implicam valores. O primeiro ponto de atenção é o conjunto de dados: se os dados históricos contêm discriminações, a máquina tende a reproduzi-las. Outro ponto é a função objetivo (o que o sistema está tentando otimizar). Se uma função otimiza apenas lucro, questões de equidade podem ser negligenciadas. Por fim, o design do sistema (quais permissões tem, como integra decisões humanas, que limites existem) também impõe prioridades morais.

Quem são os “professores” das máquinas?

- Comunidade -
Receba as principais notícias e alertas antes de todo mundo
💬 Grupo do WhatsApp

- Patrocinado -

Não existe um único agente ensinando ética às máquinas; é um ecossistema: Engenheiros e cientistas de dados que escolhem modelos, métricas e dados; Empresas que definem prioridades de produto e metas de performance; Legislação e reguladores que estabelecem limites e obrigações; A sociedade civil, usuários e grupos afetados, que, muitas vezes, reagem aos impactos e exigem mudanças. Quando há alinhamento entre esses atores, as chances de uma IA mais justa e responsável aumentam. Quando não há, surge o risco de sistemas eficientes, porém injustos — performando bem tecnicamente enquanto prejudicam pessoas reais.

Dilemas práticos: exemplos que deixam claro o desafio

Imagine um sistema de seleção de candidatos que prioriza eficiência: ele identifica padrões em currículos de pessoas contratadas no passado e privilegia candidatos parecidos. Se a empresa historicamente contratou majoritariamente homens, o sistema tende a reproduzir esse viés — sem “entender” que está promovendo desigualdade. Ou pense em um carro autônomo diante de um acidente inevitável. Programar um “princípio ético” para decidir entre dois males é uma simplificação perigosa: reduz dilemas morais ricos a regras estatísticas. Além disso, decisões que parecem técnicas (minimizar danos) são inextricavelmente morais quando vidas humanas estão em jogo.

Transparência, responsabilidade e auditoria

Do ponto de vista prático, ensinar ética às máquinas passa por transformar nebulosidades morais em processos concretos: transparência sobre dados e métricas, auditorias independentes, avaliações de impacto ético e participação de comunidades afetadas. No lugar de se perguntar apenas “funciona?”, precisamos perguntar “para quem funciona?” e “quem arca com os custos quando falha?”. Transparência não significa entregar código bruto a todo mundo — que, em muitos casos, não ajudaria — mas sim oferecer explicações compreensíveis sobre como decisões relevantes são tomadas, quais dados foram usados e quais salvaguardas existem. A responsabilidade precisa ser atribuída: quando um algoritmo erra, quem responde? A empresa que o lançou? O time que o treinou? A regulamentação deve esclarecer essas fronteiras.

Boas práticas possíveis (sem soluções mágicas)

Algumas práticas já se mostram úteis para reduzir danos e alinhar sistemas de IA a valores democráticos: Equipes diversas: diversidade na equipe reduz o risco de viés não percebido; Revisões de impacto (impact assessments): avaliações prévias que identifiquem riscos e proponham mitigação; Auditorias independentes: tanto técnicas (performance, vieses) quanto éticas (impactos sociais); Design centrado no humano: manter humanos no loop para decisões críticas;

Documentação rigorosa: registrar origem dos dados, escolhas de projeto e limitações conhecidas; Educação digital da sociedade: usuários e públicos afetados devem entender o básico sobre como sistemas os influenciam.

Um convite à responsabilidade coletiva

Ensinar ética às máquinas não é tarefa exclusiva de especialistas. É um processo social que exige participação pública, regulação inteligente e responsabilidade corporativa. Ética não é um adendo opcional; precisa ser parte do ciclo de vida do desenvolvimento tecnológico — desde a concepção do problema até o monitoramento contínuo na produção. No fim, as máquinas refletem quem somos e como organizamos nossas prioridades. Se queremos IAs que promovam justiça, dignidade e bem-estar, é necessário traduzir esses valores em práticas tangíveis: políticas públicas claras, equipes diversas, auditorias e um debate público informado.

E você — o que acha que deveria ser prioridade quando empresas projetam IAs que afetam a vida das pessoas? A conversa sobre ética na IA só começa quando todos participam.

Fonte: Me. Guilherme Cassarotti Ferigato

Receita Federal reafirma: Pix não pode ser taxado por lei no Brasil
Sucuri grávida atropelada em estrada tinha mais de 100 filhotes; vigilância recolhe animais para exposição em museu
Vagas abertas para diversos cargos em diferentes áreas
Fraude no INSS: como descobrir se você teve valores descontados e o que fazer; passo a passo
Chuva de meteoros Líridas: como observar no Brasil
Compartilhar este Artigo
Facebook WhatsApp WhatsApp E-mail Imprimir
Compartilhar
Nenhum comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Fique por dentro

Acompanhe nas redes sociais
6.7milSeguidoresCurtir
1.8milSeguidoresSeguir
WhatsAppSeguir
Mais lidas
Paraná

Alexandre Curi destaca união por obras históricas no Litoral do Paraná

sergio
sergio
12 de janeiro de 2026
Homem encontra pistola e 38 munições durante limpeza de residência em Arapongas
Call center do HONPAR mobiliza doações para hospital manter serviços
Arapongas multa tutor em mais de R$ 7 mil por manter 24 aves silvestres
Ditão Pupio destaca projetos de Jandaia do Sul e planeja ações para 2026

Categorias

  • Arapongas
  • Apucarana
  • Paraná
  • Ocorrência Policial

Receba as notícias no seu celular!

Fique por dentro do que acontece na região!
Receba as principais notícias e alertas antes de todo mundo


Entrar no grupo do WhatsApp

Notícias rápidas, exclusivas e direto no seu WhatsApp 📲

Quem somos

Desde 2005, o Ednotícias atua em Arapongas e região levando informação com credibilidade, agilidade e compromisso com a verdade. Somos um portal regional independente, dedicado a registrar os fatos que impactam nossa comunidade.
Um Clique
  • Ocorrência Policial
  • Sao Pedro do Ivaí
  • Camara Municipal de Apucarana
  • Região
Acesso Rápido
  • Arapongas
  • Apucarana
  • Paraná
  • Região
  • Ocorrência Policial
© 2025 Tudo em Software. Todos os direitos reservados.
Bem-vindo de volta!

Faça login na sua conta.

Nome de usuário ou endereço de e-mail
Senha

Perdeu sua senha?