전기및전자공학부 황의종 교수팀, 변화하는 데이터에도 편향성 줄여

채용과 인종의 상관관계가 변할 때 훈련 데이터를 개선하는 예시
채용과 인종의 상관관계가 변할 때 훈련 데이터를 개선하는 예시

[KAIST 제공. 재판매 및 DB 금지]

(대전=연합뉴스) 정찬욱 기자 = 최근 인공지능(AI)의 긍정적 효과 이면에 인종 별로 서로 다른 재범 확률을 부여하거나 채용, 대출 시스템 등 중요 영역에서 심각한 편향성을 가질 수 있다는 우려가 있기도 하다.

예를 들어 과거에 특정 인종 위주로 채용하던 기관이 이제는 인종과 관계없이 채용한다 해도 과거 데이터를 기반으로 학습된 인공지능 채용 모델이 불공정한 판단을 내릴 수 있다.

한국과학기술원(KAIST)은 전기및전자공학부 황의종 교수 연구팀이 학습 상황과 달라진 새로운 분포의 데이터에 대해서도 편향되지 않은 판단을 내리도록 돕는 새로운 모델 훈련 기술을 개발했다고 30일 밝혔다.

연구팀은 ‘상관관계 변화'(correlation shifts) 개념을 이용해 데이터의 편향 패턴이 변화해도 모델을 공정하게 학습하는 새로운 프레임 워크를 제안했다.

이를 통해 과거 데이터에서 학습했던 특정 인종 데이터를 상대적으로 줄임으로써 채용과의 상관관계를 낮출 수 있다고 연구팀은 설명했다.

이 기법은 데이터 전처리만 하기 때문에 기존에 제안된 알고리즘 기반 학습 기법을 그대로 활용하면서 개선할 수 있다는 이점이 있다.

이번 연구 논문의 제1 저자인 KAIST 전기및전자공학부 노유지 박사과정 학생은 “인공지능 기술의 실제 적용 환경에서 더욱 신뢰할 수 있고 공정한 판단을 하도록 도울 것으로 기대한다ˮ고 밝혔다.

연구 논문은 지난 7월 미국 하와이에서 열린 머신러닝 분야 최고 권위 국제학술 대회인 `국제 머신러닝 학회'(ICML)에서 발표됐다.

jchu2000@yna.co.kr

이 기사에 대해 어떻게 생각하시나요?
+1
0
+1
0
+1
0
+1
0
+1
0

댓글을 남겨주세요.

Please enter your comment!
Please enter your name here