관리 메뉴

IT & Life

엔비디아의 딥러닝과 자율 주행에 대해 알아보는 미디어 테크 토크 본문

IT 관련 정보

엔비디아의 딥러닝과 자율 주행에 대해 알아보는 미디어 테크 토크

미운앙마 2017. 10. 24. 23:31

 


 

엔비디아 미디어 테크 토크

 

지난 2017년 9월 20일, 엔비디아 코리아가 있는 서울시 강남구 삼성동 소재의 트레이드 타워에 다녀왔습니다. 이번 미디어 테크 토크는 각 미디어의 기자들을 초청해 엔비디아의 딥러닝 기술과 자율 주행에 관한 내용을 소개하였는데요. 퀘이사존 역시 초대를 받아 행사를 다녀왔습니다. 간만에 강연이라니, 마치 대학교 강의를 듣는 기분이었습니다. 그렇다면 엔비디아 미디어 테크 토크에서 소개된 내용을 퀘이사리포트를 통해 전달해드리도록 하겠습니다.

 

먼저 최근 주목받고 있는 딥러닝에 대한 내용을 엔비디아 코리아 변경원 기술 이사가 소개하였습니다.

 

딥러닝은 세상을 이해하고 감지하는 인공지능을 개발하는데 가장 촉망받는 기술이 되고 있습니다. 최근에는 여러 가지 인지능력 프로젝트에 집중되고 있으며 수많은 성공 사례들이 발표되고 있습니다. 구글이나 바이두, 페이스북 등 많은 회사가 가장 앞서서 개발하고 있으며, GPU를 사용한 다양한 딥러닝 연구와 성과들이 적용되고 있습니다.

 

딥러닝을 적용할 수 있는 분야는 이미지의 내용을 분류하거나 위치와 움직임 인식, 또는 전체적인 모습을 이해하는 이미지 분야와 음성 인식이 있습니다. 구글의 이미지 검색이 여기에 속한다고 볼 수 있습니다.

 

그리고 음성 인식, 음성 번역, 자연어 처리 등 언어 응용이 있는데 최근 삼성이 갤럭시 스마트폰에 도입한 빅스비나 애플의 시리를 떠오르면 됩니다.

 

최근 자율 주행에 사용되는 보행자 감지나 교통 신고, 표지판 인식 등 자동차 분야에도 응용할 수 있고, 의학 분야에도 응용할 수 있습니다. 최근에는 간단한 질병을 진단하는 AI가 나오기도 했죠.

 

 

 

 

다시 한번 정리하자면 딥러닝은 인공지능을 구성하기 위한 인공신경망에 기반을 두어 컴퓨터에게 사람의 사고방식을 가르치는 방법이라고 할 수 있습니다. 이것이 조금 더 발전하면 사람이 가르치지 않아도 컴퓨터가 스스로 학습할 수 있는 인공지능 기술이 생기게 되죠.

 

인공지능은 딥러닝보다 조금 더 큰 분류라고 생각하면 쉽습니다. 지능적 기계, 특히 지능적 컴퓨터 프로그램을 만드는 과학과 동시에 공학이며, 컴퓨터를 이용해 인간의 지능을 이해하는 작업과 관련되어 있으며, 이것이 생물학적인 방법에만 국한되지는 않습니다. 인공지능은 사람이 사물을 인식하는 것과 비슷한 구조를 지니고 있습니다. 얼굴을 인식하는 과정을 예로 들어볼까요. 가장 기초적으로 단순한 형태라고 할 수 있는 밝고 어두움을 구분하는 것부터 시작해 테두리의 형태, 조금 더 복잡한 사물의 형태, 그리고 결과적으로 어떤 것이 인간의 얼굴이라는 것을 규정하는 형태를 파악합니다.

 

그렇다면 머신러닝은 또 무엇일까요. 러닝머신이 아닙니다. 머신러닝입니다. 머신러닝은 컴퓨터에 사람이 직접 로직을 지시하지 않아도 수집된 데이터를 통해 컴퓨터가 스스로 학습을 하고 그것을 토대로 컴퓨터가 자동으로 문제를 해결하도록 하는 것을 의미합니다. 간단한 예를 들어보겠습니다. 일반적인 지도학습은 이건 꽃이야, 저건 태블릿이야, 그건 컵이라고 알려주면 거기서 그렇구나 하고 끝나게 됩니다. 하지만 비지도 학습은 하나를 알면 자율적으로 학습을 하므로 여기서 더욱 발전해 이건 레몬과 얼음물이 들어있는 컵이구나, 저건 아침 식사가 차려진 식탁이구나, 그건 어떤 사람이 식탁에 앉아있는거구나 라고 인식하게 됩니다.

 

하지만 머신러닝은 정확도의 한계가 있었습니다. 머신러닝의 알고리즘은 사람이 만들다 보니 어쩔 수 없이 놓치게 되는 부분이 있는데요. 그러다 보니 정확도는 75%를 넘지 못하였다고 합니다. 따라서 당시에는 머신러닝은 사람을 대체할 수 없다, 수년 동안 연구했음에도 불구하고 발전이 없다는 이유로 그다지 희망적이지 못했습니다.

 

하지만 2012년 Alex Krizhevsky가 딥러닝이라는 기술로 이미지넷 챌린지에서 머신러닝이 넘지 못하였던 80%의 정확도를 넘어서게 됩니다. 당시 사람들은 이 사실을 믿지 못하였으나 딥러닝의 소스 코드를 공개하면서 모두가 인정하고 이후부터 딥러닝이라는 분야가 주목받게 됩니다.

 

딥러닝은 데이터를 인공신경망을 통해 이것이 무엇인지 분류하고, 답을 찾게 되는데요. 만약 제대로 된 답을 찾지 못했다면 그 답을 찾을 때까지 계속해서 반복 교육을 하게 됩니다. 그리고 다시 새로운 데이터를 통해 또 다른 답을 찾는 과정을 겪게 됩니다. 그러면서 발전하게 되고요. 이렇게 발전된 딥러닝은 사진을 보고 이게 무엇인지 알아내거나 음성을 인식해 명령을 수행하고 문자를 다른 언어로 번역하는 기능을 합니다. 딥러닝이 조금 더 발전된다면 사진을 보고 그 내용을 구체적으로 서술하는 단계까지 가게 됩니다.

 

딥러닝의 신경망은 사람의 뇌를 구성하는 뉴런처럼 자극을 인식하고 이를 출력으로 내보내는 구조와 비슷합니다. 이를 수식으로 표현하면 Y=ax=b라고 할 수 있는데요. 시냅스의 결합으로 네트워크를 형성한 노드가 학습을 통해 문제 해결 능력을 갖추는 모델이라고 볼 수 있습니다. 입력과 출력 단계에 있는 신경망은 훈련이 잘되면 잘될수록 내부의 복잡한 기능들을 통해 출력을 예상할 수 있게 됩니다.

 

 

간단한 예를 들어봅니다. 위 슬라이드에 보이는 레이어의 수는 6개지만 마이크로소프트가 대회에서 1등을 차지했던 신경망의 레이어 개수는 192개 정도 됩니다. 이를 처리하려면 매우 많은 계산이 필요합니다. 6개의 레이어를 훈련하는 데에만 30일 정도가 걸립니다. 그리고 제대로 된 답을 찾으려면 이를 기반으로 하는 데이터 역시 많이 필요하게 됩니다.

 

지금까지는 사람이 만들었던 특징을 기반으로 답을 찾았다면, 이제는 딥러닝을 통해 알아서 데이터를 보고 신경망 과정을 통해 답을 얻어낼 수 있습니다. 딥러닝은 많은 데이터를 기반으로 반복적인 학습을 거쳐 올바른 답을 찾기 데 필요하다고 합니다.
 

사막에서 혼자 바늘을 찾으려면 참 어렵겠죠. 하지만 찾는 사람이 1억 명 정도라면? 혼자 찾는 것보다 찾을 확률이 커집니다. 이런 것처럼 나선 구조적인 층은 하나의 작업을 여럿이 나누어 하는 구조라고 생각하면 쉽습니다. 열 번 할 일을 한 번만 하면 되니 상당히 효율적입니다. 그리고 작업을 하더라도 내가 할 일만 하면 되므로 불필요한 계산을 하지 않아도 됩니다. 즉 딥러닝의 역할은 많은 데이터를 기반으로 반복적인 학습을 통해 효율적으로 올바른 답을 얻기 위한 과정이라고 이해하면 됩니다.
 

이미지넷의 대회를 예를 들어봅니다. 이미지넷이란 1,000개의 카테고리와 100만 개의 사진을 구별해내는 정확도를 다루는 대회인데요. 딥러닝이 등장하기 전까진 정확도가 75%를 넘기 힘들었지만, 딥러닝이 등장하면서 그 정확도가 85%에 달하게 되었습니다. 이제는 그 정확도가 100%에 가까워진 탓에 더이상 이미지넷이라는 의미가 없어져 대회가 없어졌다고 하네요. 따라서 딥러닝을 제대로 잘 만들려면 많은 데이터를 통해 반복적인 학습을 하고 효율적으로 올바른 답을 얻기 위한 시스템을 설계하고 구축해야 합니다.
 

그렇다면 딥러닝이 왜 떠올랐을까요? 가장 큰 이유는 어마어마한 데이터들이 계속해서 쌓이고 있고, 그 데이터를 바탕으로 훈련할 수 있는 새로운 딥러닝 기술이 등장하고 있고, GPU의 발전으로 이를 통해 더 빠르고 효율적인 계산이 가능해졌기 때문입니다.
 

GPU의 효율은 CPU보다 좋습니다. 구글 브레인과 스탠포드의 인공지능랩을 예를 들자면 CPU보다 GPU를 사용하는 것이 비용적으로나 전력 면으로도 절감되기 때문입니다. 결국 구글 브레인도 CPU에서 GPU 기반으로 바꾸었다고 하네요. GPU는 예측 정확도가 CPU보다 같거나 더 좋으며, 결과가 나오는 시간도 더 빠릅니다. 256장의 이미지를 훈련하는데에 CPU가 257초 걸렸다면 GPU는 28.5초 밖에 걸리지 않습니다.
 

 

 

 

 

자세한 기사 내용은 퀘이사존에서 확인이 가능합니다.

 

출처 : 퀘이사존 | http://quasarzone.co.kr/bbs/board.php?bo_table=qn_report&wr_id=15542

Comments