🧠 Nesgo algorítmico: cando a intelixencia artificial ten prexuízos
Imaxina que estás buscando traballo e envías o teu currículum. Pero non é un humano quen o revisa… é un robot. E ese robot, sen que ninguén llo diga explicitamente, comeza a preferir homes por riba de mulleres, ou persoas brancas por riba de outras etnias. Parece ciencia ficción? Non o é. Chámase nesgo algorítmico e está pasando xa.
🔍 Que é o nesgo algorítmico?
Os algoritmos de intelixencia artificial (IA) non son como os superordenadores de ficción que obxectivamente “saben” cal é a mellor opción. Na realidade, aprenden dos nosos datos , e se eses datos están cheos de desigualdades do pasado ou do presente, o resultado tamén o estará.
O nesgo algorítmico ocorre cando un sistema de IA toma decisións que afectan máis a algunhas persoas por razón de xénero, raza, relixión, idade ou outra característica sensible. Non pasa por casualidade: pasa porque así o ensinamos.
A clave está en entender que a tecnoloxía non é neutral . Os algoritmos non viven nun vacío; están influenciados polos valores, prexuízos e estruturas de poder da sociedade na que operan.
🚨 Exemplos reais que dan medo
1. Recoñecemento facial que falla con persoas negras
Un estudo realizado por Joy Buolamwini e Timnit Gebru no MIT en 2018 amosou que sistemas de recoñecemento facial de empresas coma IBM, Microsoft ou Amazon tiñan taxas de erro moito máis altas en mulleres e persoas de pel escura.
Por exemplo: en Microsoft, a precisión era do 99% en homes brancos, pero caía ata o 65% en mulleres negras.
¿A razón? Os datos de adestramento tiñan moitos máis exemplos de homes brancos. Así que o algoritmo aprendeu mal para o resto.
2. Chatbots que aprenden a ser racistas ou sexistas
En 2016, Microsoft lanzou Tay , un chatbot que falaba en Twitter. En menos de 24 horas, usuarios lle ensiñaron a defender o nazismo, insultar a mulleres e falar mal de minorías. Microsoft tivo que desconectala.Pero Tay non foi un caso illado. Outros modelos de linguaxe como os de Google, Meta ou OpenAI tamén mostran tendencias a asociar certas profesións a xéneros específicos.
A mensaxe? Se entrenas un algoritmo con internet… pode acabar
pensando como o peor usuaria desa plataforma.
3. Algoritmos de selección laboral sesgados
Amazon creou un sistema automatizado para revisar currículums. O problema? Penalizaba palabras como “muller”, “feminino” ou participación en clubsfemininos. O sistema asociaba automaticamente o éxito profesional con características masculinas.
¿Por que? Porque foi adestrado cos currículums dos últimos dez anos… maioritariamente de homes.
💡 Entón… ¿quen ten a culpa?
Non é que os algoritmos sexan "malos", senón que repiten os erros da sociedade . Algúns factores clave:
📊 Datos sesgados
Se só hai exemplos dun tipo de persoa (homes brancos, por exemplo), o sistema non saberá tratar aos demais.
👥 Falta de diversidade nos equipos tecnolóxicos
Se todos os que fan algoritmos son homes brancos, a súa perspectiva será a única reflectida. E iso fai que moitas realidades simplesmente non existan para a máquina.
🔒 Deseño pouco transparente
Moitos algoritmos son verdadeiras “caixas negras”. Nin os propios expertos saben ben como toman decisións. Isto fai moi difícil detectar e corrixir os erros.
💰 Priorizar beneficio sobre equidade
Ás veces, o que importa é que funcione rápido, non que sexa xusto. As empresas priorizan eficiencia e lucro por riba da ética.
🛠️ Que se pode facer?
Para combatir o nesgo algorítmico, precísase dunha combinación de acción técnica, política e social:
- ✅ Datos máis diversos e representativos
- ✅ Auditorías independentes de algoritmos
- ✅ Máis diversidade nos equipos tecnolóxicos
- ✅ Transparencia e explicabilidade dos sistemas
- ✅ Educación ética en IA
- ✅ Leis que protexan contra a discriminación algorítmica
Tamén é importante que o público saiba que estes sistemas non son infalibles , nin neutros. Hai que poñer en cuestión a idea de que a tecnoloxía sempre vai por bo camiño soa.
✊ Conclusión: a IA non debe copiar o pasado
A intelixencia artificial ten o potencial para cambiar o mundo… pero soamente se decidimos que non queremos repetir os erros do pasado. A tecnoloxía non é neutral. E se non somos cuidadosos, podería converterse nun espello deformante das nosas desigualdades.
Comentarios
Publicar un comentario