Eficiência com responsabilidade, transparência e foco no fator humano.

Por Nuno Ferreira Morgado, sócio na PLMJ

A gestão algorítmica deixou de ser uma mera curiosidade tecnológica e tornou-se uma infraestrutura fundamental para diversas decisões em Recursos Humanos (RH), incluindo recrutamento e seleção, alocação de tarefas, avaliação de desempenho, definição de horários e remuneração variável, bem como a detecção de incumprimentos e a condução de processos disciplinares. Os benefícios são evidentes – escalabilidade, consistência e rapidez – mas uma implementação descuidada pode acarretar custos elevados, como opacidade, viéses que geram discriminação, erosão da confiança, riscos psicossociais e potenciais disputas legais.

A legislação laboral em Portugal já se adaptou a esta realidade. Com a entrada em vigor da Lei n.º 13/2023, o Código do Trabalho passou a incluir disposições específicas sobre algoritmos e inteligência artificial (IA), estabelecendo obrigações que reforçam a proteção contra discriminação nas decisões automatizadas.

Entre as principais medidas, destacam-se:

O Código agora engloba, como matérias que não podem ser afastadas por instrumentos coletivos em sentido menos favorável, o “uso de algoritmos, inteligência artificial e matérias conexas”, sublinhando a natureza delicada destas práticas e a necessidade de proteger direitos indisponíveis.

O direito à igualdade no acesso ao emprego e no trabalho aplica-se expressamente às “decisões tomadas com base em algoritmos ou outros sistemas de inteligência artificial”, englobando todo o ciclo laboral: desde a fase pré-contratual, passando pela execução, até à cessação. A “neutralidade” técnica não exime o empregador; modelos calibrados com dados enviesados replicam desigualdades existentes.

No que diz respeito ao plano individual, o empregador tem a obrigação de informar os trabalhadores sobre os parâmetros, critérios, regras e instruções que fundamentam os algoritmos ou sistemas de IA que afetam o acesso e a manutenção do emprego, as condições de trabalho, os perfis e o controle das atividades.

No âmbito coletivo, comissões de trabalhadores e delegados sindicais têm direito a receber informações semelhantes e a serem consultados, reforçando a responsabilização coletiva da gestão algorítmica.

Em relação à vigilância e controle, permanecem aplicáveis os direitos de personalidade, restrições aos métodos de vigilância e as exigências de proteção de dados, incluindo limitações à tomada de decisão exclusivamente automatizada.

A supervisão desses sistemas deve ser “humano no comando”, o que constitui um princípio muito mais robusto do que um simples slogan. Decisões com impactos significativos – como exclusões em processos de recrutamento, atribuição de prêmios, negativas de bônus, mudanças de horário que afetam a conciliação familiar, ou seleções para despedimentos coletivos e extinção de postos de trabalho – não podem ser tomadas unicamente por algoritmos. Elas devem ser explicáveis, revisadas por humanos e justificadas à luz dos critérios legais aplicáveis.

A supervisão requer uma literacia digital interna (treinamento para gestores e RH), registros auditáveis das intervenções humanas e rotinas de identificação e correção de viéses e erros sistemáticos.

Este artigo foi publicado na edição de Novembro (nº. 179) da Human Resources.

Exit mobile version
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.

Strictly Necessary Cookies

Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.