Um artigo da autoria de Thomas Marra, Country Manager da Gi Group Holding Portugal
A subjetividade dos algoritmos é um tema que exige atenção: 61% das empresas que utilizam IA no recrutamento enfrentam desafios relacionados com preconceitos algorítmicos.
Vivemos numa era em que os dados são a nova moeda, e os algoritmos, os seus guardiões, mas nem tudo pode ser reduzido a números e códigos. Tal é valido tanto no contexto pessoal, como no âmbito profissional. À medida que a inteligência artificial (IA) redefine o mercado de trabalho, é crucial refletirmos sobre os limites e a ética por trás destas ferramentas.
A subjetividade dos algoritmos é um tema que exige atenção. Embora estas soluções tecnológicas prometam objectividade e eficiência, elas são na grande maioria das vezes, reflexo de quem as programa. Um estudo da Deloitte revelou que 61% das empresas que utilizam IA no recrutamento enfrentam desafios relacionados com preconceitos algorítmicos. Estas barreiras não são apenas técnicas, mas também culturais e éticas, exigindo que os profissionais de recursos humanos desempenhem um papel ativo na mediação entre os dados e a humanidade.
Cabe às pessoas garantir que os algoritmos são utilizados de forma justa, e as lideranças assumem aqui um papel determinante ao garantir o alinhamento com os valores e cultura da própria organização . Por isso, defendo que a transparência nos processos é essencial para reforçar a confiança. Segundo dados publicados pela PwC, 76% das empresas afirmam que a transparência nos dados é crucial para manter a credibilidade com candidatos e colaboradores. Mas como atingir este equilíbrio?
Um dos caminhos passa por incorporar mecanismos de auditoria e verificação regulares nos sistemas automatizados. Estes processos podem identificar e mitigar viés inconscientes, especialmente aqueles relacionados com género, raça e experiência profissional. Sem esta supervisão, corremos o risco de comprometer a diversidade e inclusão — dois pilares fundamentais para a inovação e competitividade. De acordo com a BBC, 61% das empresas reconhecem enfrentar desafios na discriminação algorítmica, reforçando a urgência de ações concretas.
Outro ponto crítico é entender que os dados são apenas parte da equação. Embora possam sugerir padrões e identificar perfis ideais para determinadas funções, não captam nuances humanas como motivação, empatia ou alinhamento cultural. Estas são características essenciais que apenas uma abordagem humana é capaz de avaliar plenamente.
Numa era em que a tecnologia domina as narrativas, o “human touch” é o diferenciador que não pode ser negligenciado. Por isso, quando falamos de dados, de algoritmos ou até mesmo de inteligência artificial no âmbito do recrutamento, é preciso reconhecer que o papel dos RH vai além de interpretar dados; é sobre assegurar que cada decisão respeita a dignidade e singularidade do indivíduo. Afinal, como afirmou Peter Drucker, “As organizações existem para servir as pessoas, e não o contrário.”
Os desafios são evidentes, mas as oportunidades também. Ao adotar uma abordagem ética e transparente no uso de dados estamos a contribuir para a confiança e a lealdade à organização, ao mesmo tempo que tiramos o máximo partido de todo o seu potencial contribuindo para o sucesso e desenvolvimento profissional daqueles com quem nos cruzamos Mais do que nunca, o futuro do trabalho depende de um equilíbrio entre a inteligência das máquinas e a sabedoria humana.