Categories: Uncategorized

[번역] 인재 관리에서 AI가 할 수 있는 일과 할 수 없는 일

요약 : 기업들은 지금 인재를 채용하고 유지하는 데 큰 어려움을 겪고 있다. AI 도구는 이러한 문제를 해결할 잠재력을 지닌다. 채용, 개발, 유지의 전 과정에서 AI는 기업이 겪는 주요한 고충 지점을 완화할 수 있다. 하지만 단순히 ‘플러그인 후 실행’하는 수준의 문제는 아니다. AI를 인재 관리 프로세스에 통합하려면 신뢰 부족, 편향 및 윤리적 문제, 법적 리스크와 같은 심각한 위험 요인을 반드시 고려해야 한다. 지난 1년 이상 많은 조직이 인재 유출에 고심해 왔다. 미국 노동통계국에 따르면, 2022년 8월에만 420만 명이 자발적으로 직장을 떠났다. 같은 시기에 1,010만 개의 일자리가 비어 있었다. ‘대퇴사(Great Resignation)’와 ‘조용한 퇴직(quiet quitting)’과 같은 최근 트렌드 속에서, 기존의 인재 확보 방식은 치열한 경쟁 시장에서 더 이상 유효하지 않게 되었다. 이러한 맥락 속에서 새롭게 등장한 인재 관리용 AI 도구들은 조직이 더 나은 인재를 더 빠르게 찾아내고, 더 효과적인 학습과 개발을 지원하며, 직원 몰입도를 높여 유지율을 향상시킬 가능성을 지니고 있다. 그러나 AI가 프로세스를 더 빠르고 효율적으로 만들어 인재 관리의 고충을 해결하도록 돕는다고 해도, 그 구현 과정에는 반드시 주의해야 할 도전 과제들이 존재한다. AI 도입을 고려하는 리더들은 먼저 AI가 자사에 어떤 경쟁 우위를 제공할 수 있는지, 그리고 도입 시 예상되는 핵심 문제들을 어떻게 예측하고 대응할지를 이해해야 한다.

(2022년 글이어서 최근의 트렌드와 맞지 않을 수 있습니다.)

인재 관리의 고충과 AI의 역할

인재 관리는 크게 세 단계로 나눌 수 있다:
1️⃣ 인재 유치(Employee Attraction)
2️⃣ 인재 개발(Employee Development)
3️⃣ 인재 유지(Employee Retention)

AI는 이 세 영역 각각에서 문제를 해결하는 데 기여할 수 있다.


1. 인재 유치 (Employee Attraction)

적합한 인재를 찾고 채용하는 일은 많은 인력과 시간이 드는 비효율적인 과정이며, 편향이 개입될 여지가 크다. 기업의 채용 담당자는 공고를 작성하고, 이력서를 검토하며, 면접 일정을 조율한다. 이러한 과정은 시간이 오래 걸려 채용 지연을 초래하고, 결국 유망한 후보자를 놓치는 결과로 이어진다. 또한 채용 공고에 포함된 편향된 언어는 여성이나 인종 소수자 등 전통적으로 소외된 집단의 지원율을 낮추기도 한다. 한편, 사람의 수동적 검토 또한 무의식적 편향을 내포할 수 있다.

게다가 기업들은 종종 지원자가 처음 지원한 직무 외의 다른 포지션과의 적합도 매칭 프로세스가 일관되지 않아, 후보자와 기업 모두에게 기회의 손실이 발생한다.

AI는 이러한 문제를 다음과 같이 완화할 수 있다.

  • 보다 정확한 직무 공고를 작성하고 적합한 지원자에게 자동 노출시킴

  • 유망한 후보자를 효율적으로 선별

  • 인간의 편향을 점검하고 보완하는 절차 제공

예를 들어, Pymetrics라는 플랫폼은 AI 기반 후보자 평가 도구를 활용하여 실제 역량 시연을 측정하고, 선별 과정에서 편향을 줄인다. 또한 이 시스템은 ‘아깝게 탈락한(silver medalist)’ 후보자들을 자동으로 다른 적합한 직무에 재추천함으로써 채용 담당자의 시간을 절약하고, 잠재력 있는 지원자를 다시 연결한다.

2. 인재 개발 (Employee Development)

직원들에게 지속적인 학습과 개발의 기회를 제공하는 것은 인재 관리의 핵심 요소다. 그러나 현실적으로는 다음과 같은 어려움이 존재한다.

  • 직원들의 학습 동기를 높이기 어렵고

  • 적절한 교육 기회에 접근할 수 있도록 지원하는 데 한계가 있으며

  • 교육 콘텐츠의 질을 지속적으로 유지하고 갱신하기 어렵다.

많은 조직이 이러한 이유로 직원들에게 충분한 학습 기회를 제공하지 못하고 있다.

AI는 이러한 문제들을 실시간으로 해결할 수 있는 수단을 제공한다. 예를 들어, EdApp이라는 AI 기반 학습관리시스템(LMS)은 직원 개인의 성과와 참여 분석 데이터를 기반으로 맞춤형 학습 추천을 제공하고, HR 리더가 단 몇 분 만에 마이크로러닝 콘텐츠를 제작할 수 있도록 지원하며, 학습자의 진행 상황을 추적하고 분석적 인사이트를 기반으로 콘텐츠를 수정할 수 있도록 돕는다. 이처럼 AI는 학습의 개인화를 가능하게 하여, 직원 개개인의 성장 속도와 흥미를 반영한 학습 경험을 제공한다.

3. 인재 유지 (Employee Retention)

마지막 단계는, 채용하고 개발한 인재를 조직에 머무르게 하는 것이다. 이를 위해 가장 중요한 요소 중 하나는 **직원 몰입도(employee engagement)**이다. 즉, 직원이 조직과 업무에 얼마나 심리적으로 헌신하고 연결되어 있는가를 의미한다. 최근 갤럽(Gallup) 조사에 따르면, 미국 근로자의 단 32%, 전 세계 근로자의 단 **21%**만이 “업무에 몰입되어 있다”고 답했다.

기업들은 직원 몰입도를 높이기 위해 노력하지만, 그 이유는 정확한 몰입도 측정이 어렵고, 또한 번아웃과 웰빙 관리의 어려움 때문이다.

AI는 이러한 문제를 해결할 수 있다. 예를 들어, Microsoft Viva + Glint는 직원 경험 플랫폼으로,

  • 감성 분석(sentiment analysis)과

  • 실제 협업 데이터(collaboration data)를 결합하여 직원들의 몰입도와 웰빙 상태를 실시간으로 파악할 수 있도록 돕는다.

이런 시스템을 활용하면 HR 리더는 직원들의 참여감 저하나 피로 신호를 조기에 감지하고, 적절한 대응 조치를 취할 수 있다.

AI 도구의 위험과 대응 전략

(Where AI Tools Can Go Wrong — and How to Mitigate This Risk)

AI 기반 인재관리 도구는 ‘만능 해결책(one-size-fits-all)’이 아니다. AI는 어떤 지표를 최적화하도록 설계되었는가에 따라 결과가 달라지며, 그 성능 또한 훈련 데이터와 설계 목적에 따라 한계가 있다. 따라서 인재 관리에서 AI의 잠재력을 최대한 활용하기 위해서는 리더들이 AI 도입 과정에서 마주할 수 있는 도전 과제와 위험 요인을 인식하고, 그에 대한 대응 전략을 마련해야 한다. 아래에서는 주요 위험 요소와 이를 완화하기 위한 연구 기반의 전략을 소개한다.

1. AI 의사결정에 대한 낮은 신뢰 (Low Trust in AI-Driven Decisions)

많은 사람들이 AI의 판단을 신뢰하지 못하는데, 이를 **“알고리즘 회피(algorithm aversion)”**라고 부른다. 연구에 따르면, 사람들은 AI를 불신하는 이유가 다음과 같다.

  • AI의 작동 원리를 이해하지 못하고,

  • 결정권이 자신에게서 벗어나며,

  • 알고리즘의 판단이 비인간적이고 단순화된 것으로 느껴지기 때문이다.

심지어 어떤 연구에서는, AI가 인간보다 편향이 적은 결정을 내릴 수 있음에도 불구하고 직원들은 AI 기반 HR 결정이 인간의 판단보다 덜 공정하다고 인식하는 경향이 있었다.

대응 전략:

  • AI 리터러시(algorithmic literacy) 강화: AI 도구를 사용하는 HR 리더가 통계적 기초와 알고리즘 해석 능력을 갖추면, AI 추천 결과를 보다 신뢰하고 활용할 수 있다.

  • 결정에 대한 통제감 제공: 사람들이 최종 결정에 일부라도 통제권을 가지면, AI 판단에 대한 거부감이 줄어든다. 또한, 객관적 영역일수록 AI의 판단을 더 신뢰하는 경향이 있다. 따라서, 어떤 의사결정은 AI가 주도하고, 어떤 결정은 HR 전문가가 함께 협업하는 형태로 설계하는 것이 중요하다.


2. AI 편향과 윤리적 문제 (AI Bias and Ethical Implications)

AI는 인간의 편향을 줄일 수 있지만, 편향으로부터 완전히 자유롭지 않다. 대부분의 AI 시스템은 과거 데이터를 학습하기 때문에 데이터에 내재된 역사적 불평등과 차별이 재생산될 수 있다. 예를 들어, 아마존의 AI 채용 도구는 여성 지원자에게 불리하게 작동했고, 또 다른 사례에서는 수퍼마켓 계산원 채용 광고가 85% 여성에게만 노출되거나, 택시 회사 채용 광고가 75% 흑인에게만 노출되기도 했다. 이처럼 AI의 편향은 조직의 윤리 기준과 가치관을 훼손하고, 결국 직원의 사기, 몰입도, 생산성을 떨어뜨릴 수 있다.

대응 전략:

  • AI 공정성 관리 체계 구축: 조직이 정의하는 ‘공정성(fairness)’ 기준에 따라 AI 결과의 투명성과 설명 가능성을 평가하는 내부 프로세스를 만들어야 한다. 또한, 단순히 ‘형식적 공정성’을 넘어서 **소수자 집단의 형평성(equity)**을 고려해야 한다. 이를 위해 성별, 인종 등 변수를 포함하여 서로 다른 집단에 맞는 기준을 적용할 수도 있다.

  • AI 설계팀의 다양성 확보: 연구에 따르면 다양한 배경의 엔지니어 팀이 만든 AI일수록 편향이 적다. 따라서 조직 내 AI 설계·운영팀의 다양성을 높이는 것이 장기적으로 편향 완화에 도움이 된다.


3. 직원 프라이버시 침해 (Erosion of Employee Privacy)

AI 기술은 이제 직원의 행동을 실시간으로 추적할 수 있다. 하지만 이러한 기술이 부적절하게 사용되면 직원의 사생활을 침해하고, 스트레스, 번아웃, 정신 건강 악화, 자율성 상실을 초래할 수 있다. 팬데믹 이후, 50% 이상의 대기업이 AI 기반 직원 추적 도구를 도입했다는 보고도 있다.

대응 전략:

  • 추적 목적의 투명성 확보: 가트너(Gartner) 조사에 따르면, 직원에게 “왜 이 기술을 사용하는가”를 명확히 설명한 경우, 추적에 대한 수용도가 30% → 50%로 크게 상승했다.

  • ‘평가용’이 아닌 ‘정보용’으로 설계: 최근 연구는, 직원들이 AI 단독으로 수행하는 비평가적 추적에는 오히려 더 긍정적인 반응을 보인다는 사실을 밝혔다. 즉, AI가 직원의 행동 데이터를 평가가 아닌 피드백 제공용으로 사용할 때 수용도가 높아진다. 반면, 감시나 통제의 목적일 경우 내적 동기가 떨어지고 사생활 침해로 인식된다.


4. 법적 리스크 (Potential for Legal Risk)

AI를 활용한 채용·평가 시스템이 의도치 않게 **고용 차별(discrimination)**을 야기할 경우, 기업은 법적 책임을 질 수 있다.

미국 변호사협회(ABA)는 AI 기반 인사 시스템이 차별적 결과를 낳으면 고의성이 없더라도 고용주가 책임을 져야 한다고 명시한다. 게다가 AI 관련 법규는 국가·주마다 빠르게 변화하고 있어, 기업들은 최신 규제를 지속적으로 모니터링해야 한다.

대응 전략:

  • AI 규제 프레임워크 이해: 미국의 경우 아직 초기 단계이지만, AI의 책임성·투명성·공정성 확보를 중점으로 한 여러 법안이 추진 중이다. 「국가 AI 이니셔티브 법(National AI Initiative Act)」은 이미 제정되었고,  「알고리즘 책임법(Algorithmic Accountability Act of 2022)」은 계류 중이다. 각 주 단위에서도 다양한 규제가 생기고 있으므로 다지역에서 운영되는 기업은 이에 특히 유의해야 한다.

  • 선제적 리스크 관리 프로그램 구축: 법적·정책적 환경이 완성되기 전이라도 기업은 내부적으로 AI 리스크 관리 체계를 마련해야 한다. 예를 들어, 모델 개발 단계별로 통제 장치를 설계하고, 관련 법안의 진행 상황을 지속적으로 추적해야 한다.

결론

탁월한 인재 관리 역량은, ‘대퇴사(Great Resignation)’ 시대에 경쟁력을 유지하기 위한 필수 요소다. AI 도구는 인재 관리의 주요 고충을 해결할 잠재력이 있지만, 그만큼 도입·운영의 어려움과 위험이 존재한다.

따라서 리더들은 AI 도구를 신중히 평가해야 한다. AI는 인재 관리의 효율성과 공정성을 높일 수 있지만, 단순히 ‘도입하면 된다’는 접근으로는 성공할 수 없다. AI의 한계를 인식하고, 신뢰·윤리·법적 리스크를 체계적으로 관리할 때만 그 진정한 가치를 실현할 수 있다.


저자 소개

  • 제시카 킴-슈미드(Jessica Kim-Schmid)
    다나허(Danaher) 그룹의 팔(Pall) 법인에서 인재관리팀 소속.
    버지니아대학교 다든 경영대학원(MBA) 졸업.

  • 로쉬니 라빈드란(Roshni Raveendhran)
    버지니아대학교 다든 경영대학원 경영학 조교수.
    인공지능 등 신기술이 직원과 조직 운영에 미치는 영향에 관한 연구를 수행하고 있다.

bearcoach

Recent Posts

[읽기] 조직 내 생성형 AI 실험에 대한 체계적 접근법

생성형 AI를 업무에 도입할 때 겪게 되는 "생산성 J 곡선" 현상, 즉 초기 생산성 하락…

1개월 ago

[HBR] 피드백을 장려하는 조직 문화 구축하기

구성원들이 피드백을 구하도록 장려하는 것은 여러 가지 이점이 있다. 조직 구성원들이 정기적으로 서로에게 의견을 구하면,…

1개월 ago

[번역] 변화는 어렵다. 그러나 그 고통을 덜 수 있는 방법이 있다.

Change Is Hard. Here’s How to Make It Less Painful. 에리카 앤더슨(Erika Andersen) 지음2022년 4월…

1개월 ago

[번역] 변화에 대한 저항에 대처하는 법

기술적 변화의 문제가 아니라, 기술 혁신에 흔히 동반되는 인간적 변화가 진짜 문제다.Paul R. Lawrence 지음…

1개월 ago

[번역] 친절함으로 소통하는 단순한 힘

요약 : 이 글은 ‘단절의 시대를 이끄는 창의적 회복탄력성(Creative Resilience: Leading in an Age of…

1개월 ago

[번역] 친절함은 ‘있으면 좋은’ 것이 아니다

요약: 조직이 친절함을 진지하게 다루지 않으면 사람들은 회사를 떠나거나 결근이 늘어났고, 신뢰는 약화되었으며, 팀은 소통이…

1개월 ago