![홍순만 교수 연구팀 [연세대 제공]](https://cgeimage.commutil.kr/phpwas/restmb_allidxmake.php?pp=002&idx=3&simg=2025042309170106409d2326fc69c1451642.jpg&nmt=30)
연세대학교 행정학과 홍순만 교수 연구팀이 인간과 인공지능(AI)의 의사결정 방식 차이를 설명하는 연구를 발표했다. 연구팀은 바둑을 분석 대상으로 삼아, AI의 위험 감수 성향이 인간과 어떻게 다른지를 실증적으로 분석했다.
홍순만 교수와 이상현 교수(연세대 객원교수)가 공동으로 진행한 이번 연구는 바둑이라는 복잡한 전략 게임을 실험 무대로 삼아, AI가 인간보다 훨씬 더 위험중립적인 의사결정을 내린다는 사실을 밝혀냈다. 연구팀은 이 차이가 AI가 과도한 자신감을 보이며 오류를 산출하는 원인 중 하나일 수 있다는 점을 경고하며, 이는 큰 판단 오류로 이어질 수 있음을 지적했다.
연구는 연구팀이 직접 개발한 바둑 AI와 유사한 기력을 지닌 아마추어 7단 인간 기사의 대국 데이터를 수집·분석하는 방식으로 진행됐다. 분석 결과, AI는 위험 요소를 고려하지 않고 기대 수익을 극대화하는 ‘위험중립적’ 전략을 취하는 반면, 인간은 기대 수익을 일부 포기하더라도 불확실성을 줄이려는 ‘위험회피적’ 전략을 선호하는 경향이 있는 것으로 나타났다.
이번 연구는 단순한 기술적 성능 비교를 넘어, AI가 인간과 다른 판단을 하는 원인 중 하나를 사회과학적 관점에서 분석한 점에서 주목된다. 특히, AI가 행정, 의료, 사회복지, 재난관리 등 고위험 공공 분야에 활용될 경우, 이와 같은 ‘위험중립적 판단’이 새로운 사회적 리스크로 이어질 수 있음을 시사했다.
연구팀은 향후 AI 시스템 설계 시 ▲시뮬레이션 기반 불확실성 저감 능력 강화 ▲오류 대비 안전장치 마련 ▲전문가 피드백 접목 등을 통해 책임 있는 AI 개발을 위한 제도적·윤리적 기준 수립의 필요성을 강조했다.
이번 연구는 “인간은 AI의 판단을 어느 수준까지 신뢰해야 하는가?” “우리 사회는 AI의 결정을 어디까지 수용할 수 있는가?”라는 근본적인 질문을 제기하며, 국제학술지 Journal of Psychology and AI에 4월 22일(한국시간) 게재됐다.
홍순만 교수는 “이 연구는 알파고의 훈련 방식에 대한 개인적인 호기심에서 시작되었으며, AI와 행정학의 연결은 처음에는 예상하지 못한 방향이었다”고 말했다. 특히 일본 전기통신대학(UEC) 컴퓨터공학과가 주최한 세계 AI 바둑대회에 연세대 학생들과 참가한 경험이 연구의 본격적인 계기가 되었다고 밝혔다. 당시 홍 교수가 개발한 AI 모델 ‘Nova’는 대회에서 독창성을 인정받아 ‘독창상(Originality Award)’을 수상했고, 연세대 행정학과 BK21 사업단의 교육 프로그램은 일본 NHK 방송에 소개되기도 했다.
홍 교수는 “충분히 검증되지 않은 AI는 때로 리스크를 전혀 고려하지 않은 과감한 판단을 내리기 때문에, 위험한 결과를 초래할 수 있다”며, "금융 투자, 자동 매매, 정책 시뮬레이션 같은 불확실성이 큰 분야에서는 AI의 판단을 신중히 검토하고, 인간의 개입과 검증이 필요하다"고 강조했다.
홍 교수는 또한, “AI는 위기 상황에서 본능적으로 불확실성을 줄이려는 인간과 달리 목표 달성만을 향해 직진하는 경향이 있다”며, “AI의 판단을 무조건 신뢰하기보다는 인간과의 협업과 상호 검증 체계가 함께 작동해야 한다”고 말했다. 그는 끝으로 “사회과학자들도 공학적 방법론에 더욱 적극적으로 접근해야 하며, 기술과 사회의 융합 연구는 앞으로 더욱 중요해질 것”이라고 전망했다.
김선영 기자 글로벌대학팀 globalu@beyondpost.co.kr