Estratégias para se defender contra o viés da IA em sua busca de emprego

Se você solicitou empregos on -line nos últimos anos, é possível que uma ferramenta de recrutamento com potência de IA tenha discriminado você e rejeite seu aplicativo. Pesquisas da Universidade de Washington encontraram um viés racial, de gênero e interseccional significativo sobre como três modelos de grande idioma (LLMS) de última geração (LLMS) classificaram o currículo. Além disso, um processo de ação coletiva contra a jornada de trabalho – aumentando que seu sistema de IA desvantagem desvantagem em busca de emprego com mais de 40 anos – recebeu a certificação condicional por um tribunal federal na Califórnia. A menos que o algoritmo tenha sido programado especificamente para ignorar certos indicadores, o perigo de contratar o viés aumenta drasticamente porque a IA carece de julgamento humano crucial, explicou Victoria McLean, CEO da City CV e Coach Executive. “O que mais me preocupa é que os candidatos nunca sabem que isso aconteceu”, acrescentou McLean. “Não há ciclo de feedback, apenas silêncio. E esse silêncio pode corroer a confiança de alguém quando, na realidade, era a tecnologia, não o talento deles, que fechou a porta.” Todo mundo merece um tiro justo. Aqui está como adaptar seu pacote de aplicativos para evitar ser rastreado por um bot. Como a IA discrimina a IA aprende com dados históricos e, se esses dados refletem as decisões de contratação passadas distorcidas por preconceitos – saboreando certas escolas, gêneros, etnias ou faixas etárias – o algoritmo continua silenciosamente esse padrão. Por exemplo, a Universidade de Washington descobriu que as ferramentas preferia nomes associados a brancos 85 % do tempo versus nomes associados a negros nove por cento do tempo em que classificar os currículos. Os sistemas também preferiram nomes associados a homens 52 % do tempo versus nomes associados a mulheres apenas 11 % do tempo. Os algoritmos podem escolher palavras -chave que sinalizam que você é de um plano de fundo menos afluente ou de um grupo racial sub -representado, explicou a Dra. Janice Gassam Asare, consultor de patrimônio e tecnologia do local de trabalho. Um exemplo: mencionando que você é membro de uma organização que apoia profissionais negros em tecnologia. Uma ferramenta de IA pode ser treinada para priorizar currículos que incluem certos termos destinados a sinalizar habilidades de liderança – por exemplo, “equipe de debate”, “capitão” ou “presidente”. Se alguém fez uma pausa na carreira, mudou de setores ou seguiu um caminho não linear – que é comum em tecnologia – pode interpretar essa imprevisibilidade como risco, não potencial. Use a IA para combater a IA quando se trata de evitar o viés, limite qualquer informação que possa desencadear suposições. Considere remover seu endereço completo e datas específicas das seções educacionais e de história de trabalho do seu currículo, perfis on -line e portfólio digital. AI digitaliza todos eles, e juntos eles moldam a foto de você do algoritmo. Por exemplo, em vez de nomear sua universidade, destaque a qualificação: “BS em ciência da computação”. Isso transmite sua credencial sem convidar a localização ou o viés socioeconômico. Se você tem um nome que muitas vezes é interpretado ou que desencadeia suposições inconscientes, apresente -o de maneira neutra – por exemplo, “A. Jones” – no seu currículo enquanto ainda estiver usando seu nome completo no LinkedIn para manter a consistência. Esses ajustes sutis podem ajudar a nivelar o campo em um sistema que nem sempre está jogando justo. Alavancar Chatgpt, Claude ou um chatbot semelhante para adaptar seu currículo e carta de apresentação a uma descrição específica do trabalho; Espelhe a terminologia que a empresa usa – não apenas as habilidades técnicas, mas as comportamentos e as culturais também. Se uma empresa está procurando “solucionadores de problemas colaborativos” e você se descreve como “um colaborador independente”, poderá não intencionalmente perder a marca. Não pare por aí. Peça ao AI Chatbot para revisar seu currículo para o idioma que pode ser percebido como discriminatório e sugerir alternativas que o tornem um candidato mais forte, o ASare sugeriu. Ser específico. Por exemplo, peça à ferramenta para encontrar e remover pronomes, títulos de trabalho ou adjetivos associados a um gênero específico. Pode levar várias ferramentas e instruções para criar um documento focado apenas em habilidades e experiência, e você deve solicitar informações de revisores humanos também. Concentre -se no formato Lembre -se, esses sistemas foram projetados para tomar as decisões rapidamente. Eles analisam seu currículo, digitalizando padrões, estrutura, pontuações e fósforos. Se algo não se encaixar perfeitamente em sua estrutura, ele é esquecido ou classificado mais baixo. “A apresentação importa enormemente”, enfatizou McLean. Você pode ser um engenheiro brilhante que entregou resultados transformadores, mas se o seu currículo enterrar essas realizações sob densas descrições narrativas ou vagas, o algoritmo não as buscará. Estruture sua experiência, realizações e qualificações claramente e com propósito. Use a linguagem ativa e quantifique seus resultados. Escolha uma fonte moderna e fácil de ler, como Arial ou Verdana. Evite tabelas, gráficos, imagens e gráficos sofisticados, que podem confundir ferramentas de currículo com potência de IA. Projetos secundários de formato e trabalho pro bono como uma mini seção de “experiência profissional”. Seja proativo em relação à transparência. Se você mudou as indústrias, mudou -se ou fez uma pausa na carreira, explique -a em uma frase. Não deixe o sistema adivinhando; Esse contexto pode impedir uma queda injusta. Rastrear seus resultados testam versões diferentes do seu currículo e perfis on -line. Se você solicitar funções semelhantes e receber respostas muito diferentes, um filtro de IA poderá estar em jogo. Ajuste, meça, repita. Finalmente, advogue por si mesmo. Se você perceber que uma empresa depende muito de sistemas automatizados, pergunte sobre eles, acrescentou McLean. Os empregadores responsáveis devem ser capazes de explicar como mitigam o viés. Quando os candidatos se recuperam, cria pressão para mudar. Não podemos deixar a justiça nas mãos dos algoritmos sozinhos.

Fonte

Publicar comentário

Você pode ter perdido