[트렌드탐구] 자율차 사고는 누구 책임인가? 'AI로봇'시대 '인공지능윤리' 논쟁 확산
[트렌드탐구] 자율차 사고는 누구 책임인가? 'AI로봇'시대 '인공지능윤리' 논쟁 확산
  • 유원형 기자
  • 승인 2019.06.15 15:45
  • 댓글 0
이 기사를 공유합니다

'초인공지능' 시대 앞두고 유럽의회 '전자인격' 부여에 시선 집중

[메가경제 유원형 기자] 로봇이 스스로 판단해 인간이 예측할 수 없는 행동으로 사람을 해치는 중대 범죄를 저질렀다면 누가 책임을 져야할까? 창작자인가, 제작자인가, 소유자인가, 운용자인가?

아예 로봇을 형법으로 처벌해 감옥에 보낼 수 있을까? 이러기 위해 로봇에게 인격을 부여하고 신분증을 발급하는 것은 합당할까?

무인자율주행자동차가 사고를 저지르면 제조회사의 책임인가, 자동차 소유주의 책임인가?

 

인터렉티브 휴머노이드 나오(NAO). 사람과 상호작용(인터랙션) 하는 것을 목적으로 개발된 인간형 로봇이다. 사진은 가산디지털단지역 G밸리 전시장에 전시돼 있는 나오의 모습. [사진= 메가경제DB]
인터렉티브 휴머노이드 나오(NAO). 사람과 상호작용(인터랙션) 하는 것을 목적으로 개발된 인간형 로봇이다. 사진은 가산디지털단지역 G밸리 전시장에 전시돼 있는 나오의 모습. [사진= 메가경제DB]

 

인공지능과 로봇이 급속도로 발전하면서 ‘인공지능 윤리’에 대한 논쟁이 세계적인 화두로 떠올랐다. 한편에서는 프로그램 오류나 해킹 등 비상 상황에서는 로봇을 즉각 멈출 수 있는 ‘킬 스위치’를 장착하는 문제를 논의하고 있고, 정부가 유사시 시스템 코드에 접근할 권한을 가져야 한다는 내용도 성문화 단계를 밟고 있다.

이제 ‘인공지능 윤리’ 문제는 공상과학 속에서나 보면서 재미있게 즐기는 단계를 훌쩍 뛰어넘어 우리 인류의 미래를 좌우할지도 모른다는 공포감으로까지 다가오고 있다.

◆ 인공지능, 인류를 뛰어넘을 시대가 멀지 않았다?

인공지능(AI)은 인간처럼 지각하고 인지하고 행동하는 개체를 뜻한다. 로봇처럼 몸을 가질 수도 있고 몸 없이 소프츠웨어만 존재할 수도 있다.

인공지능은 크게 세 단계로 분류할 수 있다. 지난 2016년 이세돌과의 바둑에서 승리하며 세계를 놀라게 한 ‘알파고’처럼 특정 영역의 문제를 푸는 ‘좁은 의미의 인공지능(ANI)’, 패턴이나 규칙을 인식해 인간 수준의 지능을 갖는 ‘범용 인공지능(AGI)’, 모든 분야에서 사람보다 뛰어난 ‘초인공지능(ASI)’이 그것이다. 현재 인공지능은 ‘범용 AI’의 단계를 오르고 있다.

 

영화 '터미네이터2' 포스터
아놀드 슈워제네거 주연의 '터미네이터' 시리즈는 제임스 카메론 감독의 SF 액션 영화로, 인공지능 로봇에 대한 관심과 함께 미래의 공포감을 심어줬다.  [사진= 영화 '터미네이터2' 포스터]

 

인공지능 윤리 논쟁은 크게 두 가지 갈래로 논의되고 있다. ‘법적 논의’와 ‘철학적 논의’다. 법적 논의는 인공지능을 활용할 때 생기는 사고의 법적 처리문제와 관련된 논쟁이라면, 철학적 논의는 그동안 인간에게만 있다고 생각돼온 심리적·도덕적 인격과 관련된 논쟁이다.

인공지능은 감정이나 자아를 가질 수 있을까? ‘범용 인공지능’과 ‘초인공지능’ 단계에서는 이같은 근본적인 철학 문제가 대두된다.

이같은 철학 문제는 로봇에게 인격을 부여해야할지 아닐지를 결정하기 위한 선결과제다. 그동안은 SF영화에서나 등장했던 ‘인간같은 로봇’이나 ‘인간보다 뛰어난 로봇’의 실현도 머지않아 가능하다는 예측이 잇따르고 있어 후자의 논의는 점점 더 가열될 전망이다.

미국의 미래학자인 레이 커즈와일은 2005년 내놓은 화제의 저서 ‘특이점이 온다’에서 ‘감정을 이해하고 적절히 대응하는 능력 또한 인간 지능의 한 종류인데, 미래 기계 기능은 이것도 이해하고 습득하게 될 것’이라고 예상했다.

그는 뇌 용량에 한계가 있는 인간과 달리 “기계는 아무런 제약 없이 자신의 설계를 재구성하고 자신의 역량을 증가시킬 수 있을 것이다. 나노기술 기반 설계를 이용함으로써 그들의 능력은 크기 증가나 에너지 소비없이 생물학적 뇌보다 뛰어나게 될 것이다”라고 예언했다.

커즈와일은 “2020년대 말에는 인간 지능을 완벽히 모방하는 데 필요한 하드웨어와 소프트웨어가 모드 갖춰지면서 컴퓨터가 튜링 테스트를 통과할 것이고, 더 이상 컴퓨터 지능과 생물학적 인간의 지능을 구별할 수 없게 될 것이다”라고 머지않아 컴퓨터의 지능이 인간과 유사해지거나 능가할 것이라고까지 내다봤다.

물론 이같은 예언에 반대하는 미래학자도 적지 않다. 하지만 인공지능 시대가 초래할 미래와 관련한 진지한 고민과 대책 강구의 필요성은 충분해 보인다.

‘로봇윤리’와 또 다른 차원의 ‘인공지능 윤리’

2015년 네덜란드의 인공지능 트위터 봇이 ‘나는 정말로 사람들을 죽이고 싶다’는 소름끼치는 트윗을 남겨 화제가 된 적이 있다. 물론 이 트위터 봇이 트윗 내용처럼 실제로 범죄를 직접 일으킬 거라고 생각하는 사람은 없을 것이다.

지안마르코 비루지오 [사진 출처= 지안마르코 비루지오 블로그 캡처]
'로봇윤리'라는 용어를 만들어낸 지안마르코 비루지오. [출처= 지안마르코 비루지오 블로그]

 

그럼에도 커즈와일의 예언처럼 인공지능이 인간의 지능을 넘어서면 어떻게 될까? 인공지능이 인간에게 도움이 되기만 할 거라고 생각할 수 있을까? ‘선한 인공지능’이 아닌 ‘악한 인공지능’을 생각하면 소름이 돋는다.

만약 인공지능 로봇이 스스로 판단해서 사람에 위해를 가하는 사건이 발생했다면 우리 사회에는 어떤 일이 벌어질까? 당장 누가 책임을 져야할지 ‘책임 소재’가 부상할 수밖에 없다.

이 문제는 로봇에게 전적으로 책임을 지운다고 해결될 수 없다. 인간과 로봇 간의 관계, 윤리적 책임 문제에 인류는 심리적 공황을 경험할지도 모른다.

‘로봇이 아니라면 책임을 져야할 사람은 로봇의 소유자인가, 로봇을 만든 제작자인가?’이같은 윤리적 논쟁은 불가피할 것이다. 이미 자율주행차에 의해 사람이 사망하는 사건이 발생한 뒤에도 여러 논란이 있었다.

로봇의 실수로 사람이 다치면 법적 책임은 누가 져야할지에 대한 논쟁의 해답은 쉽게 단답형을 얻기 어렵다. 이 때문에 세계적으로 ‘인공지능 윤리’ 문제가 4차 산업혁명 시대 IT(정보통신) 업계의 새로운 화두로 주목받고 있다.

‘인공지능윤리’라는 말이 쓰이기 이전에 ‘로봇윤리’라는 말이 먼저 등장했다.

'로봇윤리'는 이탈리아의 로봇공학자 지안마르코 베루지오가 2002년에 처음 사용했다. 앞서 로봇공학과 사회와의 관계를 연구하는 협회인 ‘로봇공학 스쿨(Scuola di Robotica)’을 설립한 그는 이해 ‘로봇윤리학(Roboethics)’이라는 말을 만들고 적극적인 추진을 제창했다. 2004년에는 그의 주재 아래 이탈리아의 산레모에서 ’로봇윤리학 첫 국제회의‘를 개최했다.

로봇윤리학에서의 ‘로봇’은 인공지능을 장착하지 않은 로봇부터 인공지능을 장착한 로봇까지 모두 포괄한다. 전쟁에서의 무인기나 자율형 무기 사용 논란, 컴패니언(도우미) 로봇이 인간의 심리나 인간끼리의 관계에 미치는 영향, 로봇에 의한 정보의 수집 및 사생활 문제 등을 다룬다.

‘인공지능 윤리’는 로봇과 인공지능을 가진 존재에 특화된 기술 윤리의 한 분야다. 이것은 인공지능을 설계하고 구성하고 사용하는 인간의 도덕적 행위를 다루는 ‘로봇윤리(roboethics)’와, 인공지능을 가진 존재의 도덕적 행위와 관련된 '기계윤리(machine ethics)'로 나뉜다. 전자에서는 인간이 주체이고, 후자에서는 로봇이 주체다.

◆ 아시모프의 로봇공학 삼원칙이 예견한 메시지

인간은 예전부터 한편으로는 로봇을 동경하지만 한편으로는 로봇이 초래할 미래에 대한 두려움을 가졌다. 흥미로은 것은 로봇이 현실에 등장하기 훨씬 이전부터 ‘로봇윤리’와 관련된 개념이 등장했다는 사실이다.

[사진= 연합뉴스]
지난 1월 미국 라스베가스에서 열린 세계 최대 가전·IT 박람회 'CES 2019'의 유비텍(UBTECH) 전시관에 휴머노이드 로봇 '워커(Walker)'가 전시돼 있다. [사진= 연합뉴스]

 

미국의 공상과학 작가 아이작 아시모프는 1977년 전부터 ‘로봇 시리즈’로 불리는 자신의 SF소설 속에서 로봇윤리의 개념을 주제로 나타냈다. 바로 ‘로봇공학의 삼원칙(Three Laws of Robotics)’이다.

1942년 단편소설 ‘런어라운드(Runaraound)부터 언급되기 시작한 이 로봇 작동의 삼원칙은 ‘인간에 대한 안전성, 명령에 복종, 자기 방어’로 정리할 수 있다. 아시모프도 로봇의 ’안전성‘을 가장 우선시했다.

아시모프는 세 원칙만으로는 해결할 수 없는 로봇의 새로운 명제도 제시했다. 나중에 ’로봇과 제국(1985)‘이라는 소설을 쓰면서 ’0번째 법칙(Zeroth Law)'을 추가한 것이다. ‘로봇은 인류에게 해를 가하거나 행동을 하지 않음으로써 인류에게 해가 가도록 해서는 안된다’는 명제였다.

아시모프의 로봇 원칙 개념은 그후 여러 로봇 작품에 영향을 주었고 로봇이나 사이보그 등이 자신들의 정체성을 확립하고 인간과의 관계를 설정해 나가는 과정에서 겪는 딜레마와 고뇌의 소재로 쓰였다. 그리고 이 네 가지 원칙은 ‘인공지능 윤리’의 개념에도 큰 영향을 줬다.

국내의 로봇윤리헌장 “출발만 앞섰다”

우리나라에서는 2007년 산업자원부가 각계 전문가를 주축으로 로봇윤리헌장 초안을 만들었다. 각계 인사 12명으로 이뤄진 로봇윤리협의체가 만든 이 초안은 모두 7장으로 이뤄졌다.

 

[사진= 연합뉴스]
'CES 2019'에서 공개된 삼성전자의 차세대 인공지능(AI) 프로젝트 '삼성봇 케어'의 모습. [사진= 연합뉴스]

 

1장과 2장에 헌장의 ‘목표’와 ‘인간, 로봇의 공동원칙’을 두고, 3장과 4장에 각각 ‘인간’과 ‘로봇’의 윤리를 제시했다. 이어 5장과 6장에는 ‘제조자’와 ‘사용자’ 윤리를 배치했고, 7장에 ‘실행의 약속’을 담았다.

헌장 초안의 목표는 ‘인간과 로봇의 공존공영을 위해 인간 중심의 윤리 규범을 확립하는 데 있다’고 설정하고, ‘인간과 로봇은 상호간 생명의 존엄성과 정보, 공학적 윤리를 지켜야 한다’고 공동원칙을 세웠다.

인간 윤리에는 ‘인간은 로봇을 제조하고 사용할 때 항상 선한 방법으로 판단하고 결정해야 한다’고 했고, 로봇 윤리에는 ‘로봇은 인간의 명령에 순종하는 친구·도우미·동반자로서 인간을 다치게 해서는 안된다’고 넣었다.

당시 이 초안은 로봇기술 발전 추세로 볼 때 시기상조라는 의견이 커 공식 채택되지 못했다. 하지만 로봇과 사용자, 제조자 등이 지켜야할 기본 윤리 규정을 세계 최초로 담았다는 점에서 의미가 있었다.

지난해 9월에는 한국로봇학회 로봇윤리연구회 김종욱 교수가 한국로봇산업진흥원 주최 ‘제1회 로봇윤리포럼’에서 변순용 서울교대 교수 등 5명의 전문가와 함께 집필한 ‘로봇윤리헌장 개선안’을 발표했다.

이 개선안에는 인간의 존엄성 보호, 공공선 추구, 인간의 행복추구 등 3개의 기본가치와 투명성, 제어가능성, 책무성, 안전성, 정보보호 등 5개의 실천원칙이 담겼다.

이 개선안은 로봇제작자와 서비스공급자, 사용자를 로봇윤리 행위의 주체로 보고, 행위주체들의 실천원칙도 제시했다.

유럽의회, 인공지능에 ‘전자인격’ 자격을 부여하다

인공지능이 급속하게 발전하면서 인공지능로봇 시대에 대비한 윤리 논의도 하나둘씩 가시화하고 있다. 그 논쟁의 선두에 유럽연합(EU)이 있다.

유럽연합의회는 생명위협과 재산손실 등 인공지능 로봇의 행위에 대해 법적 책임을 부여하는 내용의 논의를 본격적으로 개시했다.

 

[사진= 연합뉴스]
지난해 9월 일본에서 공개된 '철완 아톰'의 가정용 로봇인 '커뮤니케이션 로봇 아톰'. [사진= 연합뉴스]

 

유럽의회는 2017년 2월, 인공지능 로봇이 스스로 판단을 내릴 능력을 갖추고 그 판단에 대한 알고리즘이 인간이 파악하기 어려운 수준까지 나아간다면 로봇에 책임을 물을 수밖에 없다는 내용을 골자로 한 결의안을 통과시켰다. 

특히 이 결의안은 인공지능 로봇의 법적 지위를 ‘전자인격(electronic personhood)'이라고 명시해 시선을 끌었다. '전자인격'은 '자율적이고, 예측 불가능하고(unforeseeable), 스스로 학습하는’ 존재로 결의안은 정의하고 있다. 스스로 학습한다는 로봇이 인간이 알 수 없는 방식에 의해 직접 다양한 경험을 통해 배우고 환경과 상호작용한다는 것을 의미한다 

이 결의안에 따르면, 모든 로봇은 분류기준과 등록 절차가 마련될 것이다. 로봇은 인간을 위해 봉사해야 하며, 인간에게 어떤 피해를 입히는데 사용돼서는 안된다. 이를 위해 투명성(transparency), 책무성(accountablility) 등이 요구된다. 

이같은 결의안에 대한 반발도 만만치 않다. 인공지능 로봇에 대한 법과 윤리를 연구하는 전문가 156명은 지난해 4월 유럽연합집행위원회에 ‘로봇에 법적 지위를 부여하는 것은 부적절하다’며 결의안에 반대하는 내용의 공개서한을 보냈다. 결의안은 유럽연합의 최고 규제기관인 집행위원회를 통과해야 비로소 각국에 영향을 미친다.  

이들은 로봇에게 책임을 부여하게 되면 오히려 로봇 제작자, 개발자, 소유자 등을 책임에서 벗어나게 만드는 부작용이 일어날 수 있다며 우려하고 있다.

OECD도 인공지능 권고안 초안을 만들어 공개했다. 이 초안은 OECD과학기술혁신국 산하 디지털경제정책위원회가 50여명의 AI 전문가그룹을 구성, 지난해 9월부터 올해 2월까지 연구 끝에 내놨다.

OECD AI 권고안은 신뢰 가능한 인공지능을 위한 5가지 원칙과 4가지 국가별 정책 및 국제협력의 원칙으로 구성되어 있다. 권고안은 ‘지속 가능한 성장’과 ‘신뢰 가능한 인공지능’ 발전을 목표로 한다.

이 권고안 초안은 지난 3월 22일 용산 서울드래곤시티에서 개최된 ‘한-OECD AI 컨퍼런스’에서 국내에도 공개됐다.

5가지 원칙은 ▲포용적 성장, 지속가능한 개발과 복지, ▲인간 중심의 가치 및 공정성, ▲투명성 및 설명가능성, ▲건전성, 보안성 및 안전성, ▲책무성이다.

당시 컨퍼런스에서 한국정보화진흥원 문용식 원장은 “인공지능이 세상에 유용하다는 점은 논란의 여지가 없지만, 인간의 통제 가능성 및 그 지속성에 대해서는 의심의 여지가 커지고 있는 상황”이라며 “OECD AI 권고안을 통해 우리나라 정책에 적용할 수 있는 함의를 찾고 법제도 및 윤리를 보완해 인공지능을 인간에게 도움이 될 수 있는 쪽으로 도입해야 할 것”라고 말했다.

인공지능 윤리의 두 가지 핵심은 ‘투명성과 책무성’

그동안 ‘자율성’은 인간에게만 부여됐다. 하지만 인공지능 시대에는 ‘자율성’이라는 용어와 부여받는 주체가 모호할 수 있다. 인공지능이 고도화될수록 이같은 ‘자율성’에 대한 의문과 과제는 급증할 수밖에 없을 것이다.

로봇에게 ‘전자 인격’이라는 법적 지위까지 부여하려는 움직임의 배경에는 인공지능의 ‘자율성’ 성격이 있다.

 

[사진= 메가경제 DB]
서울 가산디지털단지 역 G밸리에 전시돼 있는 제조용 로봇. [사진= 메가경제 DB]

 

현대 인공지능 로봇은 설계자가 짠 프로그램에 입각해 학습하는 ‘기계학습(머신러닝)’에다, 사람처럼 수많은 데이터 속에서 패턴을 찾아내는 ‘딥러닝’ 기법을 통해 발전하고 있다. 비정형 데이터로부터 규칙을 추론해 내는 방식의 ‘딥러닝’은 기계학습의 인공신경망이 고도화된 기법으로 인간의 인지 기능을 모방해 학습하는 기법이다.

그동안은 개발자가 예측 가능한 범위에서 인공지능의 학습이 이루어졌다면 이제부터는 인공지능이 스스로 진화하면서 미지의 영역으로 점프할 수 있다. 그 만큼 지금까지와는 전혀 다른 위협에 대한 우려가 제기되고 있다.

‘자율성’이라는 단어와 항상 병치되는 단어가 있다. 바로 ‘책임’이다. ‘자율성’이 제3자나 사회에 피해를 주지 않으려면 강한 ‘책임감’이 필요하다.

인간의 존엄성을 지키며 공공선을 실현함으로써 인류에게 행복을 가져다줄 인공지능의 세계를 만들어가려면 무엇이 가장 중요할까?

인공지능의 윤리에서도 자율성에 따른 책임이 강조된다. 특히 전문가들은 ‘책무성’을 강조한다.

김효은의 저서 ‘인공지능과 윤리’(커뮤니케이션북스)에서는 “‘책무성’은 특정 이해 당사자가 자신이 수행한 행위나 프로그램의 책임과 의무를 식별하고 설명하거나 행위의 정상성에 대한 물음에 답하는 것으로, 사후적 제재와 관련된 ‘책임’과 구분된다”고 설명한다.

자율적 의사 결정이 가능한 인공지능 시스템의 경우 설계부터 제작, 공급, 사용에 걸쳐 의사 결정의 책임과 책무성이 부여된다는 것이다. 인공지능이든 로봇이든 문제가 발생하지 않도록 우려없이 안전하게 활용하고 제어하려면 알고리즘의 투명성과 개발부터 운용까지 전 과정에 걸친 책무성이 요구된다.

인공지능 시스템이 인간에게 해를 입힌다고 가정하면 우선 정확히 원인을 규명할 수 있어야 사고를 예방할 수 있고 재발도 막을 수 있다.

유럽연합도 대중에게 영향을 미치는 알고리즘을 사용하는 기업은 그 알고리즘 내부 논리에 대해 설명해야 한다는 내용의 투명성 확보 지침을 추진하고 있다. 기업이나 소유자는 ‘설명할 의무’를 지니고, 소비자나 피해자는 ‘설명을 요구할 권리’를 지녀야 한다.

인공지능이 일으키는 사고나 사회 문제를 막으려면 인공지능 개발을 저해하지 않으면서도 인공지능 학습 절차에 대한 설명 방법을 확보하는 것이 매우 중요하다는 논리다.

트롤리 딜레마, 인공지능 윤리가 풀어야할 난제를 대변하다

무인자율자동차의 자율성 여부를 논할 때 자주 거론되는 용어가 ‘트롤리 딜레마(Trolley Dilemma)'다. 철학자 필리파 푸트가 1967년 처음 제시한 두 선택지 이론이다.

 

'CES 2019'의 SK텔레콤과 SM엔터테인먼트 공동 전시관에 전시됐던 AI 로봇 DJ의 모습. [사진= 연합뉴스]
'CES 2019'의 SK텔레콤과 SM엔터테인먼트 공동 전시관에 전시됐던 AI 로봇 DJ의 모습. [사진= 연합뉴스]

 

푸트는 정상궤도에서 이탈한 기차(트롤리)가 선로에 서 있는 다섯 명을 향해 돌진하는 상황에서 벌어질 수 있는 딜레마를 가정했다. 선로 전환기를 당겨서 다섯 명을 구하게 되면 그 대신 다른 선로에 있는 한 명이 죽게 된다는 설정이다.

이때 다섯 명을 구할 것인가, 아니면 다른 선로의 한 명을 구할 것인가, 하는 선택지 문제가 생긴다.

연구자들의 실험 결과, 이런 상황에서 사람들은 일관된 선택을 하지 않았다. 사람들은 선로의 구조, 자신과 사람들과의 관련성, 선로전환기의 선택 가능성 등 다양한 조건을 고려해 여러 선택지를 내놨다.

이런 상황이라면 인공지능으로 움직이는 무인자율자동차는 어떤 선택을 해야할까? 자율차를 가정으로 한 조사에서도 사람들의 반응은 일관적이지 않았다고 한다.

인공지능 시대의 도래는 인류에게 과연 ‘윤리와 도덕’이 무엇이고, 또 그런 행동은 어떤 것인지 묻고 있다. 그 잣대가 보편적인 듯하면서도 국가와 사회, 개인에 따라 차이가 있기 때문이다.

더 큰 변수는 인간이 로봇에게 바라는 도덕적·윤리적 행동이나 잣대가 인간에게 바라는 것과 다를 수 있다는 데 있다. 인공지능 윤리가 어쩌면 인류의 철학문제보다 더 복잡한 해석과 논의 과정이 필요할지도 모를 일이다.

이제 기술 발전이 인간의 미래를 두렵게 하는 불확실성의 단계에 와 있다. 인공지능 윤리라는 새로운 패러다임에 대한 고민은, 인류의 미래라는 거대한 철학적 화두가 아니더라도 당장 우리나라가 어떤 방향으로 IT기술을 전개시켜야 할지의 선택지와도 직결된다.

세계적으로 컴퓨터 프로그램을 통해 윤리적 판단을 내리는 소프트웨어 개발도 이어지고 있다. ‘인공지능 윤리 산업’의 등장이라고 해도 과언이 아니다.

인공지능 윤리는 우리나라에서도 한창 추진중인 자율자동차의 장기적 개발 방향과도 떼레야 뗄 수 없다. 인공지능 윤리에 대한 사회적·산업적 논의를 가속화해야 하는 이유다.

인공지능 발전 단계는 아직 초기 단계다. 앞으로 가이드라인과 관련된 논의가 무르익을 것이다. 이미 세워진 가이드라인의 원칙이 현실과 맞지 않는 상황도 지속적으로 제기될 것이다. 그런 만큼 유연한 사고와 논의 과정 그리고 관련 부처의 지속적인 정책적 뒷받침이 요구된다.

<참고자료 = 김효은 저 ‘인공지능과 윤리’(커뮤니케이션북스), 박영숙·제롬 그렌 저 ‘세계미래보고서 2019’(비즈니스북스), 한국정보화진흥원 ‘한-OECD AI 컨퍼런스 현장 보고서’>

 


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.