[남영준 칼럼] 인공지능(AI)의 내막과 위험성
[남영준 칼럼] 인공지능(AI)의 내막과 위험성
  • 남영준
  • 승인 2023.08.28 03:00
  • 댓글 0
이 기사를 공유합니다

남영준 톡톡미디어 대표  (전 국제종합기계 대표)
남영준 톡톡미디어 대표 (전 국제종합기계 대표)

2018년에 등장한 구글의 인공지능 알파제로는 역대 최강의 체스 프로그램인 스톡피시를 꺾었다. 이세돌 9단과 대국했던 인공지능 알파고를 상대로 전승을 거두었다. 알파제로는 사람의 바둑 기보나 체스를 보고 익힌 게 아니다. 그저 인공지능에 체스와 바둑 규칙만 알려주고 승률을 극대화하는 전략을 찾으라고 지시했을 뿐이다.

지금까지 알파제로를 이긴 인간은 없다. 알파제로는 도저히 인간이 생각하지 못하는 수를 찾아낸다. 어떻게 그런 수를 찾아냈는지 과학자들도 밝혀내지 못하고 있다. 군은 전쟁 시 승리하기 위해서 인간이 생각하지 못하는 전술을 인공지능이 찾아낼지 모른다는 현실에 직면하고 있다.

2022년 3월 미국의 신약 개발사 컬래보레이션스 제약은 인체에 치명적인 독성물질을 찾도록 인공지능을 훈련했다. 단지 더 독성의 물질을 찾으면 보상해 주는 강화학습방식이었다. 6시간 만에 4만개의 후보를 찾아냈으며, 지구상 가장 강한 독성물질인 신경독 ‘VX’ 보다 더 강한 물질을 찾아냈다. 인공지능에 준 데이터는 이와 관련된 것이 없는데도 말이다.

컴퓨터는 인간이 규칙을 만들어주면 즉, 프로그램을 짜면 그대로 실행해 왔다. 빠른 속도로 대량의 데이터를 처리해 준다. 그러다 컴퓨터에 학습을 시켜 스스로 규칙을 만드는 머신러닝 시대가 왔다. 예로 수많은 고양이와 개 그림을 학습하도록 하여 기계가 스스로 규칙을 만들어 개와 고양이를 구분하는 방법이다. 지금은 기계가 알아서 스스로 학습하는 딥러닝의 시대이다.

딥러닝은 컴퓨터가 수학계산을 하면 무작위로 수많은 다이얼을 돌려 맞추어본다. 그래서 가장 정답에 가까우면 학습을 끝낸다. 알파제로가 체스나 바둑의 규칙만 알려주면 스스로 학습해서 승률을 극대화하는 전략을 찾는 방식이다. 이러한 머신러닝과 딥러닝을 하는 기계를 인공지능(AI)이라 부른다.

인간의 자연어를 이해하고 대화가 가능한 인공지능 챗GPT의 등장으로 일상생활 곳곳에서 글자로 지시하면 만들어주는 시대가 도래했다. 글로 지시하면 그림을 그려주는 사이트, 영상을 만들어주는 사이트, 작곡해주는 사이트, 글 써주는 사이트 등이 계속 쏟아져 나오고 있다. 마이크로소프트는 워드, 엑셀, 파워포인트를 글자로 지시하면 만들어주는 MS365 코파일럿을 곧 제공할 예정이다.

챗GPT는 생성모델(Generative)로 미리 훈련된(Pre-trained) 트랜스포머(Transformer) 인공지능이다. 딥러닝은 판별모델과 생성모델로 구분되는데, 판별(判別)모델은 이제까지 가장 많이 사용하는 모델이다. 생성모델은 기존 데이터를 학습해서 새로운 데이터를 생성하는 딥러닝 모델이다.

트랜스포머는 구글이 개발한 언어 모델로 어텐션을 이용한다. 어텐션(Attention)이란 사람의 말 중에서 중심이 되는 말에 집중하는 방식이다. 예로 “나는 빨간 사과를 먹고 싶다”하면 ‘빨간’과 ‘사과’에 집중하는 방식이다. 전에는 문법적으로 접근하다 보니 오역이 많았으나, 이렇게 함으로써 긴 문장도 제대로 이해하게 되었다.

챗GPT는 인공지능에 언어를 강화학습(RL)하면서 마지막에 사람이 피드백하는 방식을 사용했다. ‘RLHF’라고 한다.
인공지능이 사람의 손을 떠나 기계 스스로 혼자 배우고 다 하는 건 아니다. 그런 인공지능은 사람의 통제를 벗어나 영화에서 보는 그런 무서운 모습이 될지 모른다. 그러나 인공지능에 사람이 간여하는 건 다른 면에서 보면 더 위험할 수 있다. 대중을 교묘하게 조종할 수도 있으니 말이다.

 


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.