
김장원 공학박사
로스앤젤레스에서 인공지능, 기계학습 분야의 연구원으로 일하고 있다. 최근 대학교 전공 설명회에 패널로 참여할 기회가 있었고, 그곳에서 몇 가지 질문을 받았다.
그중에서 머릿속에 맴도는 질문이 하나 있다.
“제 아이는 법에 관심이 많은데, 프로그래밍도 공부해야 할까요? 요즘 인공지능, 프로그래밍이 워낙 중요하다고 해서요.”
나는 이렇게 대답했다.
“아이가 성인이 되는 시점에 무엇이 중요할지 잘 모르겠습니다. 정말 프로그래밍에 관심이 있다면 모르겠지만, 일단은 본인에게 흥미 있는 것을 먼저 잘 하는 게 중요하다고 생각해요. 열린 마음으로 다른 분야에도 관심을 갖고 변화에 적응하려는 태도도 중요합니다.”
설명회가 끝난 뒤에도 이 질문을 곱씹어 보곤 했는데, 결국 내 결론은 ‘그렇다’ 보다는 ‘아니다’에 가깝다.
먼저 ‘누구나 배워야 한다’는 말은 인공지능이 열어주는 새로운 기회를 차지하는 면에 편중되어 있고, 그 이면의 많은 것을 간과하고 있다. 인공지능은 새로운 기회이면서 동시에 너무나도 빠르고 독특한 변화 그 자체다. 빠른 변화에는 많은 갈등이 따르고, 그 안에서 이익을 얻는 자와 손해 보는 자로 갈리기 마련이다.
사회적 갈등을 인지하고 예측하고 조정하는 일, 사회적 합의를 이끌어내는 일, 법체계와 행정시스템을 수정하고 만드는 일도 혁신의 속도만큼이나 중요하다. 변화의 속도와 파급력이 큰 만큼, 다양한 분야의 전문가가 더 많은 관심을 기울여야 한다.
그런데, 이런 일을 수행할 때, 예를 들면 python(프로그래밍 언어)이나 tensorflow(인공지능 tool)의 기초지식이 어떤 도움이 될까? 나는 회의적이다.
우리 사회는 아직 인공지능의 허용 범위와 법적 책임을 정하지 못하고 있다. 인공지능의 자동 예측/판단 기술은 어디까지 허용해야 할까?
최근 범람하는 온갖 예측 모델 중에는, 흥미롭기는 하지만, 도덕적으로 허용되어야 할지 부작용이 더 크지는 않을지 염려스러운 것도 있다. 예를 들면, 프로필 사진만으로 그 사람의 성격, 직업, 테러의 위험까지 예측하는 인공지능 회사가 있는데, 그들의 기술이 실제로 테러를 얼마나 줄여줄 수 있을까? 이 기술의 정확도가 높다고 가정하더라도 개인의 외모만으로 범죄 가능성을 판단하여 조치를 미리 취하는 행위가 과연 정당한가?
부작용만 낳고 말았다면, 그 피해는 누가 어떻게 보상해줄 것인가? 자동 예측/판단 기술을 활용하는 서비스는 정확도뿐만 아니라 사회적 영향과 책임이 중요하며, 공적 책임을 넘어서 법적 책임과 적절한 규제가 필요하다고 생각한다.
나는 내 분야에서 나름대로의 희망을 품고 일하고 있고, 새로운 변화의 긍정적 영향을 믿고 확인하며 살고 있다. 하지만, 오늘날 드러나는 문제와 앞으로 다가올 변화에 대한 고민도 있다. 그래서 법률가가 꿈인 아이도 코딩을 공부해야 하냐고 물었을 때, ‘그렇다’라고 답하지 못했다. 법에 흥미가 있다면, 먼저 훌륭한 법률 전문가가 되도록 열심히 공부하고 열린 마음으로 인공지능 전문가를 포함한 다양한 분야의 사람들과 교류하며, 정말 빠르게 변하는 세상에서 어떤 역할을 할지 고민해 주기를 바라는 마음이다. 기술의 효용과 이익이 보다 많은 사람에게 돌아가고 보다 많은 사람들이 행복하게 살 수 있도록 돕는 일에는 프로그래밍과 인공지능 이외에도 정말 다양한 전문성이 필요하다.
<
김장원 공학박사>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x