Eficiência com responsabilidade, transparência e foco no fator humano.
Por Nuno Ferreira Morgado, sócio na PLMJ
A gestão algorítmica deixou de ser uma mera curiosidade tecnológica e tornou-se uma infraestrutura fundamental para diversas decisões em Recursos Humanos (RH), incluindo recrutamento e seleção, alocação de tarefas, avaliação de desempenho, definição de horários e remuneração variável, bem como a detecção de incumprimentos e a condução de processos disciplinares. Os benefícios são evidentes – escalabilidade, consistência e rapidez – mas uma implementação descuidada pode acarretar custos elevados, como opacidade, viéses que geram discriminação, erosão da confiança, riscos psicossociais e potenciais disputas legais.
A legislação laboral em Portugal já se adaptou a esta realidade. Com a entrada em vigor da Lei n.º 13/2023, o Código do Trabalho passou a incluir disposições específicas sobre algoritmos e inteligência artificial (IA), estabelecendo obrigações que reforçam a proteção contra discriminação nas decisões automatizadas.
Entre as principais medidas, destacam-se:
O Código agora engloba, como matérias que não podem ser afastadas por instrumentos coletivos em sentido menos favorável, o “uso de algoritmos, inteligência artificial e matérias conexas”, sublinhando a natureza delicada destas práticas e a necessidade de proteger direitos indisponíveis.
O direito à igualdade no acesso ao emprego e no trabalho aplica-se expressamente às “decisões tomadas com base em algoritmos ou outros sistemas de inteligência artificial”, englobando todo o ciclo laboral: desde a fase pré-contratual, passando pela execução, até à cessação. A “neutralidade” técnica não exime o empregador; modelos calibrados com dados enviesados replicam desigualdades existentes.
No que diz respeito ao plano individual, o empregador tem a obrigação de informar os trabalhadores sobre os parâmetros, critérios, regras e instruções que fundamentam os algoritmos ou sistemas de IA que afetam o acesso e a manutenção do emprego, as condições de trabalho, os perfis e o controle das atividades.
No âmbito coletivo, comissões de trabalhadores e delegados sindicais têm direito a receber informações semelhantes e a serem consultados, reforçando a responsabilização coletiva da gestão algorítmica.
Em relação à vigilância e controle, permanecem aplicáveis os direitos de personalidade, restrições aos métodos de vigilância e as exigências de proteção de dados, incluindo limitações à tomada de decisão exclusivamente automatizada.
A supervisão desses sistemas deve ser “humano no comando”, o que constitui um princípio muito mais robusto do que um simples slogan. Decisões com impactos significativos – como exclusões em processos de recrutamento, atribuição de prêmios, negativas de bônus, mudanças de horário que afetam a conciliação familiar, ou seleções para despedimentos coletivos e extinção de postos de trabalho – não podem ser tomadas unicamente por algoritmos. Elas devem ser explicáveis, revisadas por humanos e justificadas à luz dos critérios legais aplicáveis.
A supervisão requer uma literacia digital interna (treinamento para gestores e RH), registros auditáveis das intervenções humanas e rotinas de identificação e correção de viéses e erros sistemáticos.
Este artigo foi publicado na edição de Novembro (nº. 179) da Human Resources.
