소프트웨어 개발자와 윤리 의식
강성원(KAIST 교수)
소프트웨어는 인간이나 기계가 할 일을 자동화한다. 하는 일을 지능적이고 효율적으로 해낼 수 있다면 소프트웨어는 이용자에게 그만큼 더 큰 가치를 제공하게 된다. 따라서 인공지능(AI: Artificial Intelligence)을 포함하여 사용자 인터페이스, 데이터베이스 등의 다양한 시스템 요소 기술의 개발자들과 이러한 요소 기술의 컴포넌트들을 연결하여 시스템을 구축하는 소프트웨어 개발자들은 소프트웨어를 더 지능적이고 더 효율적으로 만드는 데 박차를 가하고 있다. 특히 최근에는 AI 기술의 혁명적 발전으로 AI 서비스에 대한 수요가 증가하며 전통적 소프트웨어를 개발하던 많은 개발자들이 AI 기반 시스템(AI-enabled System) 즉 AI 시스템을 개발하게 되었다.
소프트웨어 개발 과정에 개발자들은 회사의 CEO를 비롯한 관리자들의 지휘를 받기 때문에 이 글에서는 소프트웨어 개발자라는 용어를 이들을 모두 포함하는 넓은 뜻으로 사용한다.
증기기관, 전기, 컴퓨터 발명의 예에서 볼 수 있는 것처럼 기술의 발전은 혜택을 가져올 뿐 아니라 늘 부작용을 수반해 왔다. 그러나 최근의 AI 기술은 일자리를 앗아갈 것뿐만 아니라 AI를 이용한 인명 살상 무기의 개발, 가짜 뉴스나 거짓 정보의 생성 등 다양한 부작용을 동반하고 있다. 이런 점에서, AI는 매우 유용하기도 하지만 또한 매우 위험한 기술이기도 하다. 의도하지 않은 부작용의 수준을 넘어 나쁜 의도를 가진 사람들에 의하여 적극적으로 악용될 수 있다는 점에서 핵기술이나 유전자 기술과 같이 매우 위험한 기술일 뿐 아니라, 이들 기술보다도 인류에 더 큰 위협이 될 수 있다. 그 이유는 첫째로 AI 가 인간의 두뇌의 역할을 대신하여 판단과 결정을 하는 데 쓰이고, 둘째로 복제가 용이하여 그 혜택이나 파괴력이 엄청날 수 있기 때문이다. AI의 대부로 알려진 Geoffrey Hinton교수가 인간은 자신의 지식을 복사하여 다른 사람에게 전달할 수 없지만 AI 시스템은 하나가 어떤 경험을 하는 순간 즉시 모든 다른 AI시스템과 그것을 공유할 수 있다고 한 것은 이러한 취지의 언급이다.[1] 핵무기나 기후 문제도 인류를 크게 위협하지만 AI가 갖는 복제력은 없다. 이런 이유로 최근의 AI 기술 혁명으로 인한 소프트웨어 개발의 부작용은 불편이나 손실의 수준을 넘어 인류와 인류의 미래를 위협할 수 있는 지경에 이르렀고, 따라서 AI기술의 개발자[2]와 소프트웨어 개발자[3]의 윤리 의식은 더 할 나위 없이 중요하게 되었다. 최근의 몇몇 사례들을 보면 이를 생생히 실감할 수 있다.
소프트웨어 개발자의 취약한 윤리 의식으로 발생하는 문제의 사례들
Facebook 사건. 2021년 10월 5일 미국 상원 청문회에서 Facebook의 프로덕트 매니저였던 Frances Haugen이 Facebook에서 사용하는 수많은 알고리즘들의 위험성을 지적하며 다음과 같이 발언하였다. “나는 페이스북이 아이들에게 해를 끼치고, 분열을 조장하며, 민주주의를 약화한다는 생각으로 오늘 이 자리에 섰다. 이러한 문제는 충분히 해결될 수 있다. 페이스북도 방침을 바꾼다면 더 안전하고, 표현의 자유를 중시하며, 더 즐거운 소셜 미디어가 될 수 있다. 그러나 페이스북은 스스로 바뀌지 않을 것이다.”[4] 알고리즘들에 있는 문제점의 상당수는 악의적인 설계에 의한 것이 아니라, 알고리즘이나 지능 모델의 기반이 되는 데이터에 내재하는 편향성과 부적절성을 없애려는 노력을 적극적으로 기울이지 않았거나 회사 내부에서 나오는 문제점들에 대한 지적을 받아들이지 않은 결과일 것이다. Facebook의 내부 고발 사건은 2021년 12월 Facebook의 회사명을 Meta로 변경한 주된 이유를 회사의 실추된 이미지를 회복하려는 시도로 보는 시각이 있을 정도로 회사나 일반인들에게 큰 충격이었다.
소프트웨어 다크패턴. 다크패턴(Dark Pattern)은 기만적 설계 패턴으로도 불리며 사용자를 속여 어떤 행위를 하거나 물건을 사게 만드는 소프트웨어 설계를 말한다. 2023년 6월 미국 연방거래위원회(FTC)는 Amazon 이 Prime서비스를 제공하며 서비스 가입은 쉽지만 탈퇴 과정을 고의적으로 복잡하게 만들어 연방거래법과 온라인 신뢰회복법을 위반했다며 소송을 제기했다.[5] 우리나라에서도 쿠팡의 와우멤버십 서비스가 Amazon Prime서비스와 비슷한 다크패턴의 해지/가입 방식을 제공한다고 비난 받았다. 또한 2023년 4월 네이버는 광고에 “인공지능 기술을 활용해, 이용자가 착각할 만한 게시물이나 댓글을 쓰는 방식의”[6] 다크패턴의 광고 서비스를 시작하여 물의를 일으킨 바 있다. 다크패턴이라는 용어가 만들어진 것은 2010년도로, 다크패턴이 최근에 발생하기 시작한 문제가 아니라 오래전부터 있었던 악의적 소프트웨어 개발 방식으로 그 유형도 다양하다.[7] 필자가 기억하는 몇 십년 전의 한 사례에서는 어느 금융 소프트웨어 개발자가 모든 거래에서 발생하는 1센트 미만의 금액을 본인의 계좌로 입금되도록 했다가 발각되어 몇 개월간 감옥살이를 한 뒤 자신의 경험을 살려 소프트웨어 보안 컨설턴트로 전향하였다.
거대 IT기업의 윤리팀 해체. 2023년 3월에는 Microsoft가 마지막 남은 7명의 AI 윤리팀 직원들을 해고하면서 Microsoft의 AI윤리팀이 완전히 해체되었다.[8] Google, Amazon, Meta, Twitter도 역시 비슷한 시점에 윤리팀을 해체하거나 대폭 축소하였다. 그 이유는 이 회사들이AI제품 개발에 경쟁적으로 더욱 속도를 내기 위한 것으로 보인다.
소프트웨어 개발은 사회적 관심사이다
2018년 KAIST 국방 인공지능 융합연구센터가 설립되자 Toby Walsh교수와 Geoffrey Hinton교수를 포함한 전세계의 57명의 학자들이AI기술이 인명살상무기 개발에 이용될 것을 우려하여 KAIST와의 연구협력을 보이콧할 것이라는 서한을 KAIST에 보냈다. 이들은 KAIST총장으로부터 KAIST는 인간윤리에 위배되는 연구를 수행하지 않을 것이라는 해명을 들은 뒤 보이콧 선언을 취소하였다. 이 사건으로부터 우리는 과학기술인이 윤리 의식이 매우 민감한 문제이며 큰 사회적 관심사가 될 수 있음을 확인할 수 있다.
2023년 3월에는 “AI 시스템들이 이제 일반적인 작업에서 인간 수준의 경쟁력을 갖게”된 데 충격을 받은 사람들이 거대AI실험의 중지를 촉구하는 공개 서한을 발표하였다.[9] 이 서한에는 Geoffery Hinto, Yoshua Bengio, Sam Altman, Demis Hassabis를 비롯하여 전세계에서 3만명 이상이 서명하였다.[10] 이들은 다음과 같은 질문들을 던졌다:
- 기계들이 우리의 정보 채널을 선전 및 거짓 정보로 넘쳐나게 놔둬야 할까요?
- 지금도 잘 되고 있는 일을 포함하여 모든 일자리를 자동화해서 없애야 할까요?
- 인간보다 그 수가 더 많고, 더 똑똑하고, 우리를 쓸모 없게 만들고 대체할 수 있는 비인간적인 지능을 개발해야 할까요?
- 우리 문명에 대한 통제력을 상실할 위험을 무릅써야 할까요?
이 서한에서 이들은 “이러한 결정들은 선출되지 않은 기술 리더들에게 위임되어서는 안 된다”고 하였다. 여기서 이들이 ‘선출되지 않은’이라고 표현한 것은 이런 문제들이 사회문제의 영역에 들어가며 사회 구성원 모두의 관심사임을 뜻한 것이라고 볼 수 있다.
이와 같이 시스템의 요소 기술을 포함한 소프트웨어 시스템의 개발은 이제 기술의 문제를 넘어 사회 구성원 한명 한명에게 이익과 불이익을 줄 수 있고 때로는 인류 전체의 흥망성쇠에까지 영향을 미칠 수 있는 활동이 된 것이다.
소프트웨어 개발자의 윤리 의식의 중요성은 꽤 오래전부터 인식되어 왔다. 1997년에 ACM/IEEE가 8개의 항목으로 이루어진 “소프트웨어공학 윤리강령”을 발표하였고 2016년에는 우리나라 소프트웨어공학 소사이어티가 이를 소사이어티 구성원을 위한 윤리강령으로 채택하였다.[11] 2018년에는 한국정보화진흥원에서 “지능정보사회 윤리 가이드라인”을 발표하였고 2020년에는 과학기술정보통신부가 인간 존엄성, 사회의 공공선, 그리고 기술의 합목적성이라는 세 개의 원칙을 근간으로 하는 “AI 윤리기준”을 발표하였다.[12] 뿐만 아니라 국내의 앞서가는 여러 IT기업들로 자체적으로 윤리 강령을 제정하였다.[13] 이와 같이 정부와 앞선 기업들은 윤리 기준을 이미 만들어 놓았다. 그러나 윤리 의식과 윤리적 판단의 주체인 개인에게 이를 고취시키려는 적극적인 노력은 아직까지 알려진 사례가 별로 없다.
아무리 좋은 윤리 강령이 있어도 현장의 소프트웨어 개발자들이 그것을 가슴으로 느끼고 몸소 실천하지 않으면 그것은 공염불에 지나지 않을 것이다. 윤리 강령의 취지 달성은 소프트웨어 개발 회사들과 회사의 구성원들이 얼마나 뚜렷한 윤리 의식을 갖고 이를 실천하느냐에 달려 있다. 인간이 일생 동안 하는 여행중 가장 긴 여행이 머리에서 가슴으로 그리고 가슴에서 발로 이어지는 여행이라고 한다.[14] 이는 실천하는 것이 생각을 갖는 것보다 훨씬 더 어려운 일임을 일깨우는 말이다.
Geoffrey Hinton 교수는 최근 그가 Google을 떠난 이유가 Google의 사업에 영향을 주지 않고 AI의 안전성 문제에 대하여 자신의 생각을 얘기하고, 나아가 기술 산업계의 지도자들과 협력하여 AI가 주는 위협이 무엇인지 파악하여 그것에 대응하는 일들을 하기 위해서라고 하였다.[15] 우리 소프트웨어 개발자들도 함께 협력하여 올바른 소프트웨어 개발자가 되는 길로 같이 나아간다면 개개인이 고군분투하는 것보다 훨씬 힘을 덜 들이면서 더 효과적으로 ‘책임감 있는” 소프트웨어 개발을 이루어 낼 수 있을 것이다.
[1] Will Douglas, MIT Technology Review, May 2, 2023
https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/
[2] 지능을 제공하는 로직 또는 모델을 설계하고 구현하는 사람들을 지칭한다.
[3] AI 컴포넌트나 그 외의 컴포넌트들로부터 시스템을 구축하는 사람들을 말한다.
[4] Karen Hao, MIT Technology Review, 2021년 10월 8일
https://www.technologyreview.kr/facebook-algorithms/
[5] 임지선, 유선희, 정인선, 2023년 7월 3일
https://www.hani.co.kr/arti/economy/it/1098419.html
[6] 임지선, 유선희, 정인선,2023년 7월 3일
https://www.hani.co.kr/arti/economy/it/1098419.html
[7] https://en.wikipedia.org/wiki/Dark_pattern
[8] Cristina Criddle, Madhumita Murgia, 2023년 3월 29일
https://www.ft.com/content/26372287-6fb3-457b-9e9c-f722027f36b3
[9] Pause Giant AI Experiments: An Open Letter
[10] 이들 이외에 공개서한에 서명한 명사들로 Steve Wozniak, Stuart Russell, Yuval Harari, Elon Musk가 있다.
[11] http://sigsoft.or.kr
[12] 과학기술정보통신부, 인공지능(AI) 윤리기준」마련, 2020. 12.
[13] 한국연구재단 연구윤리정보센터, ‘인공지능(AI)윤리 가이드라인’의 중요성과 국가별대응 현황: 국내,” 2020.
[14] 신영복, 담론 – 신영복의 마지막 강의, 돌베개, 2015. pp. 19-20.
[15] Will Douglas, MIT Technology Review, May 2, 2023
https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/