본문 바로가기
HR/확보관리

AI가 바꾸는 채용의 미래, 공정함은 누가 지켜야 하는가

by 동이가 소개하는 HR의 모든 것 2025. 7. 27.
728x90

“면접을 본 게 아니라, AI에게 평가를 당했다는 느낌이었습니다.”
최근 한 구직자가 남긴 이 말은, AI 기반 채용 시스템이 사람에게 어떤 인상을 줄 수 있는지를 상징적으로 보여줍니다.

오늘날 채용 현장에서 AI는 더 이상 낯선 존재가 아닙니다.

 

이력서 분석, 면접 평가, 챗봇 인터뷰까지, 지원자가 처음 마주하는 ‘면접관’이 사람이 아닐 수 있는 시대입니다.

 

효율성의 측면에서는 분명한 진전이지만, 그렇다고 해서 AI가 반드시 공정하다고 말할 수 있을까요?


1. AI는 채용을 어떻게 바꾸고 있는가

AI 기술은 채용의 전 과정을 바꾸고 있습니다.

 

글로벌 기업의 75% 이상이 최소 한 단계 이상 AI를 채용 프로세스에 활용 중이며, 국내에서도 공공기관과 대기업을 중심으로 관련 기술의 도입이 빠르게 확산되고 있습니다.

1) 이력서 분석 자동화

자연어 처리(NLP) 기술을 기반으로 AI는 수천 개의 이력서를 신속하게 분석하고, 직무 관련 키워드, 경험 연차, 적합도 등을 기준으로 서류를 선별합니다.

 

미국의 HireVue, Pymetrics 등은 이러한 기능을 제공하며, 효율적인 초기 필터링을 가능하게 합니다.

 

하지만 과거의 데이터를 학습한 AI가 과거의 편향까지 그대로 학습할 수 있다는 점은 분명한 한계입니다.

 

실제로 아마존은 자사 AI 채용 도구가 여성 지원자 이력서를 체계적으로 감점 처리한다는 사실을 확인하고, 해당 시스템을 폐기한 바 있습니다.

 

이는 채용 시스템이 과거 10년간의 ‘남성 중심’ 데이터를 학습한 결과였습니다.

2) 화상면접 자동 평가

화상면접에서 AI는 지원자의 표정, 음성 톤, 언어 패턴 등을 분석해 적합도 점수를 산출합니다.

이를 통해 면접관 간 평가 편차를 줄일 수 있다는 장점이 있습니다.

 

그러나 AI가 인식하는 표정과 억양은 언어, 문화, 신체적 특성에 따라 다르기 때문에, 문화적·신체적 다양성을 충분히 반영하지 못하면 오히려 차별을 강화할 수 있습니다.

 

HireVue는 이와 관련한 문제 제기 이후, 일부 감정 분석 기능을 중단했습니다.

3) 챗봇 기반 인터뷰

지원자가 챗봇과 주고받는 사전 질문형 인터뷰도 늘고 있습니다.

 

프랑스의 L’Oréal은 챗봇을 통해 기본적인 커뮤니케이션 능력과 직무 이해도를 파악한 후, 그 결과를 토대로 사람이 최종 판단을 내리는 구조를 운영합니다.

 

이처럼 AI는 채용 과정에서 속도와 효율성이라는 분명한 강점을 제공하지만, 동시에 윤리적 설계와 관리의 중요성을 함께 요구하고 있습니다.


2. AI 채용이 위험해질 수 있는 지점들

AI 채용이 불러오는 우려의 핵심은 판단 기준의 불투명성의도하지 않은 편향의 가능성입니다.

 

미국 고용평등위원회(EEOC)는 2023년 “AI 기반 채용 시스템이 특정 집단을 구조적으로 차별할 수 있다”며

 

기업에 가이드라인을 제시했고, 유럽연합(EU)은 채용 시스템을 ‘고위험 AI’로 분류하며 설명 가능성과 기록 보존을 법적으로 요구하고 있습니다.

실제 발생한 편향 사례

편향 유형 사례
성별 편향 아마존의 AI 채용 시스템이 여성 이력서를 체계적으로 감점 평가 (폐기됨)
학벌 편향 특정 키워드(SKY, IVY 등)에 과도한 가중치를 부여해 고졸·비정형 경력자가 불이익을 받는 구조
언어/문화 편향 영어 기반 AI가 한국어 화자의 억양을 ‘부정적 감정’으로 해석해 점수를 낮게 부여한 사례 보고
 

이러한 사례들의 공통점은 기술에 대한 맹신과 사람의 보완 없이 판단을 위임한 결과라는 점입니다.


3. 사람과 AI의 협업 구조는 어떻게 설계해야 하는가

AI는 ‘판단자’가 되어서는 안 됩니다.

 

대신, AI는 반복적이고 정량적인 업무를 보조하고, 사람이 판단과 해석, 윤리적 책임을 담당하는 구조가 바람직합니다. 이를 흔히 "Human-in-the-loop" 구조라고 부릅니다.

하이브리드 채용 구조 예시

 

채용 단계 AI Role Human Role
서류전형 조건 필터링, 키워드 분석 비정형 이력서 해석, 성장 가능성 판단
1차 면접 챗봇 질문 자동화, 응답 요약 맥락적 질문 제시, 태도 및 반응 평가
최종 판단 지원자별 요약 리포트 제공 조직문화 적합성, 윤리적 판단과 책임
 

예를 들어, Unilever는 AI를 활용한 게임 기반 성향 분석으로 서류 심사를 진행한 후, 이후 단계는 인간 면접관이 수행합니다. L’Oréal은 챗봇 면접 이후에도 면접관이 내용을 직접 검토하고 판단합니다.

이러한 구조는 AI의 효율성과 인간의 감수성을 결합하는 현실적 해법입니다.


4. 리더는 어떤 질문을 던져야 하는가

기술을 도입하는 것은 상대적으로 쉽습니다.

그러나 그 기술이 어떤 기준으로 판단하고, 그 판단이 누구에게 어떤 영향을 미치는지를 설명할 수 없다면, 그 채용은 결코 공정하다고 말할 수 없습니다.

리더는 다음과 같은 질문을 반드시 스스로에게 던져야 합니다.

  1. 우리는 AI의 판단 기준을 충분히 이해하고 있는가?
  2. 지원자는 본인의 평가 과정과 결과를 알 수 있는가?
  3. 기술은 다양성과 포용을 촉진하고 있는가, 아니면 기존의 편향을 강화하고 있는가?
  4. 채용 결과에 대한 최종 책임은 사람에게 명확히 귀속되는가?

5. 마무리: 기술이 아니라 철학이 공정한 채용을 만든다

AI는 누가 보아도 뛰어난 도구이며 훌륭한 기술 중 하나입니다.

그러나 그것이 ‘누가봐도 옳은 도구’가 되기 위해서는 그 기술을 설계하고 책임지는 사람의 철학과 감수성이 필요합니다.

 

AI는 ‘무엇이 정답인가’를 빠르게 제시할 수 있지만, ‘무엇이 옳은가’는 여전히 인간의 몫입니다.


따라서 채용의 공정성과 신뢰는 기술을 얼마나 잘 쓰느냐가 아니라, 그 기술을 어떻게 설계하고, 어디까지 책임지려 하는가에 달려 있습니다.

 

HR 담당자이자 조직의 문을 여는 사람으로서, 우리는 단순히 빠른 필터링 도구를 선택하는 것이 아니라,
누구에게 기회가 열리고 누구에게 닫히는지를 결정하는 책임 있는 선택을 하고 있다는 점을 잊지 말아야 합니다.

“기술이 정한 기준이 아니라, 우리가 지켜야 할 기준은 무엇인가?”
이 질문을 잃지 않는다면, AI 시대에도 채용은 더 정교해지고, 더 따뜻해질 수 있습니다.

 

728x90