🧠 Nesgo algorítmico: cando a intelixencia artificial ten prexuízos


🧠 Nesgo algorítmico: cando a intelixencia artificial ten prexuízos

Imaxina que estás buscando traballo e envías o teu currículum. Pero non é un humano quen o revisa… é un robot. E ese robot, sen que ninguén llo diga explicitamente, comeza a preferir homes por riba de mulleres, ou persoas brancas por riba de outras etnias. Parece ciencia ficción? Non o é. Chámase nesgo algorítmico e está pasando xa.


🔍 Que é o nesgo algorítmico?

Os algoritmos de intelixencia artificial (IA) non son como os superordenadores de ficción que obxectivamente “saben” cal é a mellor opción. Na realidade, aprenden dos nosos datos , e se eses datos están cheos de desigualdades do pasado ou do presente, o resultado tamén o estará.

O nesgo algorítmico ocorre cando un sistema de IA toma decisións que afectan máis a algunhas persoas por razón de xénero, raza, relixión, idade ou outra característica sensible. Non pasa por casualidade: pasa porque así o ensinamos.

A clave está en entender que a tecnoloxía non é neutral . Os algoritmos non viven nun vacío; están influenciados polos valores, prexuízos e estruturas de poder da sociedade na que operan.


🚨 Exemplos reais que dan medo

1. Recoñecemento facial que falla con persoas negras

Un estudo realizado por Joy Buolamwini e Timnit Gebru no MIT en 2018 amosou que sistemas de recoñecemento facial de empresas coma IBM, Microsoft ou Amazon tiñan taxas de erro moito máis altas en mulleres e persoas de pel escura.

Por exemplo: en Microsoft, a precisión era do 99% en homes brancos, pero caía ata o 65% en mulleres negras.

¿A razón? Os datos de adestramento tiñan moitos máis exemplos de homes brancos. Así que o algoritmo aprendeu mal para o resto.




2. Chatbots que aprenden a ser racistas ou sexistas

En 2016, Microsoft lanzou Tay , un chatbot que falaba en Twitter. En menos de 24 horas, usuarios lle ensiñaron a defender o nazismo, insultar a mulleres e falar mal de minorías. Microsoft tivo que desconectala.

Pero Tay non foi un caso illado. Outros modelos de linguaxe como os de Google, Meta ou OpenAI tamén mostran tendencias a asociar certas profesións a xéneros específicos.

A mensaxe? Se entrenas un algoritmo con internet… pode acabar
pensando como o peor usuaria desa plataforma.


3. Algoritmos de selección laboral sesgados


Amazon creou un sistema automatizado para revisar currículums. O problema? Penalizaba palabras como “muller”, “feminino” ou participación en clubs
femininos. O sistema asociaba automaticamente o éxito profesional con características masculinas.

¿Por que? Porque foi adestrado cos currículums dos últimos dez anos… maioritariamente de homes.


💡 Entón… ¿quen ten a culpa?

Non é que os algoritmos sexan "malos", senón que repiten os erros da sociedade . Algúns factores clave:

📊 Datos sesgados

Se só hai exemplos dun tipo de persoa (homes brancos, por exemplo), o sistema non saberá tratar aos demais.

👥 Falta de diversidade nos equipos tecnolóxicos

Se todos os que fan algoritmos son homes brancos, a súa perspectiva será a única reflectida. E iso fai que moitas realidades simplesmente non existan para a máquina.

🔒 Deseño pouco transparente

Moitos algoritmos son verdadeiras “caixas negras”. Nin os propios expertos saben ben como toman decisións. Isto fai moi difícil detectar e corrixir os erros.

💰 Priorizar beneficio sobre equidade

Ás veces, o que importa é que funcione rápido, non que sexa xusto. As empresas priorizan eficiencia e lucro por riba da ética.


🛠️ Que se pode facer?

Para combatir o nesgo algorítmico, precísase dunha combinación de acción técnica, política e social:

  • Datos máis diversos e representativos
  • Auditorías independentes de algoritmos
  • Máis diversidade nos equipos tecnolóxicos
  • Transparencia e explicabilidade dos sistemas
  • Educación ética en IA
  • Leis que protexan contra a discriminación algorítmica

Tamén é importante que o público saiba que estes sistemas non son infalibles , nin neutros. Hai que poñer en cuestión a idea de que a tecnoloxía sempre vai por bo camiño soa.


✊ Conclusión: a IA non debe copiar o pasado

A intelixencia artificial ten o potencial para cambiar o mundo… pero soamente se decidimos que non queremos repetir os erros do pasado. A tecnoloxía non é neutral. E se non somos cuidadosos, podería converterse nun espello deformante das nosas desigualdades.

Comentarios