한국포스트휴먼학회

학술발표회

학술/교류>학술발표회

2016 학술발표회_이태수 교수 요약문 2016-10-26 17:15
일자 : 2016. 11. 18.
주제 : 강한 AI - 윤리적인 AI?

 




 

 

20세기 중반부터 본격화된 인공지능 연구는 그 동안 잠깐의 우여곡절을 겪기도 했지만, 21세기에 들어서면서부터는 탄탄대로를 달려 나가는 것 같은 기세로 일취월장의 발전을 거듭해나고 있다. 인공지능 연구가 그 기세를 그대로 유지한다면 인류에게는 어떤 앞날이 열릴까? 

 

인공지능은 일단 현재까지는 특정한 단일 목표의 달성을 위해 고정된 용도로 쓰이는 경우 인간을 능가할 수도 있다는 것을 충분히 보여주었다. 그러나 그 정도는 약한 인공지능의 단계에 속하는 것에 불과하다

 

일부 선도적인 연구자들의 야심은 이제 그런 단계를 넘어 소위 강한 인공지능을 겨냥하고 있다. 인공일반지능(AGI)라는 명칭으로도 불리는 강한 인공지능은 그 명칭의 뜻 그대로 인간이 부여한 특정한 단일 목적이 아니라 어떤 목적이 설정되든 그것을 달성하는 데에 쓰일 수 있는 다()목적적 또는 범용(汎用) 지적 능력이다. 

 

그런데 그런 지능이 스스로 할 일을 선택하는 즉 자율적 행동 목적 설정 능력까지 갖추게 될 것인지 여부는 인류에게 더 없이 심대한 문제가 될 수밖에 없다. 정말 그런 능력까지 보유한 인공지능출현한다면 인류의 기술 개발 역사는 그 정점에 도달했다고 해야겠지만, 문제는 그것을 그저 반기기만 할 수는 없다는 데에 있다. 소위 강한 인공지능의 가치판단 능력이 어떤지, 도대체 윤리적, 실천적 지성의 수준이 어떤 것일지 현재로서는 전혀 예상해볼 길이 없기 때문이다

 

확실한 것은 윤리의식에 해당하는 모듈이 부재한 인공지능은 그것이 대단한 능력을 지닌 것인 만큼 우리에게는 엄청나게 두려운 존재가 될 수 있다는 것뿐이다. 우리는 그저 그것이 자신이 지닌 대단한 능력을 한껏 다 발휘하지 않고 자신의 행동 목적 설정 권능만큼은 계속 인간에게 맡겨주기를 희망해야 한다

 

그렇다고 해도 핵폭탄을 안고 있는 것과도 같은 위험이 계속되겠지만, 그런 상황이 반윤리적인 것을 인식하지 못하는 인공지능이 스스로의 행동 목적을 설정하는 것보다는 훨씬 더 안전할 것이다.

 

혹시 지금부터라도 인공 지능이 장착할 윤리 코드의 개발에 착수하는 것은 어떨까? 사실은 강한 인공지능이 동시에 윤리적인 인공지능이 될 수 있어야 진정한 의미에서 인간수준의 인공지능이라 불릴 수 있을 것이다. 결국 윤리적 인공지능의 개발이 우리에게 주어진 최대의 과제가 되어야 하는 것이 아닐까

 

그 과제의 해결이 불가능에 가까울 만큼 지난한 것이라면 인공지능이 열어줄 우리의 앞날은 끔찍한 디스토피아적 포스트 휴먼시대일 가능성이 크다

 


이전글 : 2016 학술발표회_박은정 교수 요약문
다음글 : 2016 한국포스트휴먼학회 학술발표회 개최