자율주행차 시승하는 황 권한대행<YONHAP NO-2152>

▲황교안 대통령 권한대행 국무총리가 자율주행차에 시승해 관계자의 설명을 듣고 있다. 사진=연합뉴스

자율주행 단계(Level of Autonomy)
구분정의개요
Level 0비자동운전자가 브레이크, 속도조절, 조향 등 모든 주행기능을 제어하고, 교통상황 모니터링 및 안전조작에 책임
(No-Automation)
Level 1기능별 자동화특정한 제어 기능이 개별적으로 적용
Function-specific Automation
Level 2복합기능 자동화2개 이상의 제어기능이 복합적으로 적용
Combined Function Automation
Level 3제한된 자율주행사람과 차량간 운행 제어기능이 상황에 따라  전환, 제한된 특정환경에서만 차량이 운행 및 안전기능을  제어
Limited Self-Driving Automation
Level 4완전자율주행차량이 전적으로 모든 주행 및 안전기능을 제어. 사람은 목적지 및 주행경로만 입력
Full Self-Driving Automation
clip20170319020547
clip20170319015018
[에너지경제신문 이수일 기자] 국내 이동통신 3사 간 자율주행차 사업 주도권 경쟁이 치열해지고 있다. 

19일 이통 업계에 따르면 SK텔레콤·KT·LG유플러스 등 이통 3사는 성장 잠재력이 큰 자율주행차 투자에 열을 올리고 있다. 더욱이 자율주행차가 5G를 기반으로 하고 있어 자존심을 걸고 투자하고 있다. <관련기사 6면> 

현재 이통 업계에선 SK텔레콤이 자율주행차와 커넥티드카에 가장 적극적으로 달려들고 있다. SK텔레콤은 국내업체로는 처음으로 ‘5G자동차협회(5GAA)’에 가입한 데 이어 지난 1월 자율주행차 전담팀을 신설했다. 이에 앞서 서울대와 함께 스누버(SNUver)에 차량통신(V2X)을 적용한 자율주행 기술을 공개했으며 인텔과 5G 및 딥러닝 기반의 자율주행기술 공동 개발을 위한 양해각서(MOU)를 체결하는 등 자율주행차 사업을 벌이기 위한 사전정지작업을 해왔다. 특히 박정호 SK텔레콤 사장은 MWC2017에서 "자율주행을 선도하겠다"며 시스코·엔비디아·퀄컴 등과 협력을 공개하기도 했다.

KT는 최근 강원도 알펜시아 리조트에서 자율주행5G버스를 미국 자동차공학회 기준 레벨 3 수준인 제한된 자율주행을 시연하는 데 성공, 이를 상용화하기 위해 국토교통부에 자율주행 임시 운행허가를 신청할 계획이다. KT는 ‘플랫폼 사업 기획실’내 ‘자율주행차 NT팀’을 만들어 사업을 강화하고 있다. 특히 현대자동차와도 자율주행에 필요한 차량 간 통신, 커넥티드카 기술, AI(인공지능) 등의 부문에서 협력하기로 한데 이어 최근 대구시와 손잡고 자율주행 테스트베드를 구축하기 위한 협약을 체결하기도 했다. 

LG유플러스는 쌍용자동차·인도 테크 마힌드라와 공동으로 차량에 LTE 통신 모뎀을 내장해 운전자에게 안전·보안 및 인포테인먼트 콘텐츠 서비스 개발에 나섰다. 이와 함께 홈IoT와 자율주행차가 연계된 서비스 플랫폼 구축은 물론 오윈 등과 함께 올 하반기 ‘카 커머스’ 사업에도 나섰다. 

이처럼 이통3사가 향후 자율주행차 사업에 열을 올리는 것은 시장 성장성 때문이다, 미국 시장조사 업체 내비건트리서치는 레벨 2 이상 자율주행 시스템을 탑재한 자동차 비중이 2025년 4%에서 2035년 75%로 커지고, 시장 규모가 1890억달러(2020년)에서 1조1520억달러(2035년)로 6배 이상 커질 것이라고 전망했다. 이와 함께 자율주행차가 5G 기반으로 개발된 점도 이통 업계의 투자 요인 중 하나다. 5G 기술의 데이터 전송 속도는 초당 1Gbps 수준으로 LTE 보다 1000배 빠른 것으로 알려졌다. 


출처: http://www.ekn.kr/news/article.html?no=275069

Posted by insightalive
,

머신러닝(Machine learning=기계 학습)이 몇년 전부터 알려지기 시작했습니다. 심지어 개발자가 아닌 일반 소비자들도 머신러닝에 대해 알 정도죠. 우리가 아마존에서 어떤 물건을 장바구니에 담았을 때 관련 상품을 추천하는 것 등이 머신러닝의 가장 보편적인 예입니다. 머신러닝의 기본 개념은 데이터를 기반으로 스스로 학습하고 자신만의 룰을 만드는 컴퓨터 프로그램의 산물입니다.
  
머신러닝 애플리케이션 개발은 일반적인 애플리케이션 개발과는 다릅니다. 머신러닝 개발자는 코딩이나 특정 문제를 해결하는 대신 알고리즘을 짜고 데이터를 기반으로 고유한 로직을 만듭니다. 아마존의 예와 같이 소비자의 행동과 판매에 관한 데이터는 사람들이 좋아하거나 관심 있어 하는 제품이 무엇인지 파악하는 데 사용되곤 합니다. 이것은 단순히 사용자의 카트에 담긴 물건과 마케터나 판매 담당자가 추천하는 제품과의 1:1 관계를 찾는 것이 아닙니다. 모든 방문자와 판매된 모든 제품 등으로부터 발생되는 모든 데이터를 계산해 예측하고, 다음 행동과 결정에 도움을 주는 것이죠. 새로운 제품 과 새로운 데이터는 항상 유입되고, 그에 따른 추천 결과는 지속적으로 변경되고 개선됩니다.

왜 머신러닝에 이토록 관심을 가질까요? 최근 사물인터넷(IoT)의 부상으로 연결되는 장비가 증가하면서, 또 많은 양의 데이터에 쉽게 접근할 수 있게 되면서 데이터를 관리하고 데이터가 의미하는 것이 무엇인지 이해하고자 하는 요구가 증가했습니다.

또한 다양한 산업에서 머신러닝을 활용하기 시작했습니다. 그 덕분에 개발자들은 머신러닝을 어떻게 활용할 것인지 그리고 이 기술이 제품에 어떤 가치를 가져다 줄 것인지 학습하는 아주 좋은 기회를 가질 수 있게 됐죠.


머신 러닝 알고리즘의 종류


감독(Supervised) 학습
훈련용 데이터는 라벨이 지정되거나 결과가 알려진 데이터로 구성되는데요. 기계는 라벨을 스스로 적용할 수 있을 때 까지 학습합니다. 예를 들어, 얼굴 인식 알고리즘을 만들기 위해서는 사람이 풍경, 인물, 동물, 빌딩 등과 같은 라벨이 입력된 사진을 제공하고, 기계가  라벨이 돼 있지 않은 사진에서 얼굴을 인식할 때까지 지속하는 것이죠.

비감독(Unsupervised) 학습
기계는 라벨이 지정되지 않은 데이터를 분석하고 비슷한 것끼리 분류해 식별합니다. 그렇기 때문에 위의 예처럼 라벨이 없는 같은 사진들을 제공하면 기계가 이미 공유된 특징들(도시 경관의 날카로운 라인과 얼굴의 둥근 모양 같은)을 기반으로 이미지를 수집합니다. 그러나 둥근 모양이 '얼굴'이라고 말할 수 없습니다. 이 프로그램들은 데이터 셋 내에서 그룹을 정의하는데요. 그 과정을 사람에게 보여주기는 매우 어렵거나 불가능합니다.

세미-감독(Semi-supervised) 학습
위 예를 합친 방법인데요. 많은 양의 데이터가 있지만, 라벨링 된 데이터는 적을 때 사용하는 방법입니다. 비감독학습 기술은 그룹이나 라벨링되지 않은 클러스터를 주로 사용하는데, 감독 학습 기술은 라벨을 예측할 수 있죠.
     
강화(Reinforcement) 학습
특정한 맥락 안에서 이상적인 행동을 선택하고 그에 대해 단순한 보상을 주는 방법입니다.


사람의 손보다 훨씬 빠릅니다


머신러닝의 가장 큰 이점은  사람이 하는 것보다 더 빠르게 일을 처리한다는 것입니다 문제가 발생했을 때 사람처럼 해결할 수는 없지만 많은 양의 데이터를 근간으로 빠른 연결과 예측은 가능하죠. 사물인터넷(IoT)과 연결된 장비 덕분에 수집할 수 있는 데이터의 양이 많아지면서 머신러닝이 굉장히 중요해 졌습니다. 스마트 기기나 만보기 같은 걸 생각해보십시오. 실제로 우리 삶의 모든 것들이 데이터를 생성하죠. 얼마나 많은 데이터가 하루에 생성될 지 생각해 보십시오. 그리고 그러한 제품을 가진 모든 사람의 수에 데이터를 곱한다고 생각해 보십시오. 우리가 더 연결될수록 가치는 더 커집니다. 머신러닝은 우리가 삶의 패턴에 중요한 통찰력을 가질 수 있도록 돕습니다. 사람이 이 속도를 따라잡기는 쉽지 않을 것입니다.


머신러닝 시장


데이터를 다루는 산업은 데이터가 의미하는 바를 이해함으로써 큰 이득을 볼 수 있습니다. 가령 제조 공장은 수리 시점을 예측할 수 있고, 무인 자동차 같은 것도 머신러닝의 결과라고 할 수 있죠. 다음은 머신러닝을 사용하는 산업군들입니다.




새로운 트렌드로 떠오르는 '챗봇(Chatbot)'


올해 페이스북 메신저가 챗봇을 발표했는데요. 이는 회사와 컨슈머로부터 엔게이지를 끌어낼 수 있는 가능성을 만듭니다. 고객이 페이스북 페이지로 메시지를 직접 보낼 경우 인공 지능(AI)이 고객과의 상호작용을 통해 의사 결정이나 제품 학습에 도움을 줍니다. 이러한 모든 상호작용은 챗봇의 기능을 더욱 향상시킵니다. 특정 트랜잭션은 메신저 내에서 어떤 특정 기능도 수행할 수 있는데요. 가령 자동차 아이콘을 클릭하면 우버(Uber)에 콜을 보낼 수도 있습니다.
     
챗봇은 텍스트를 보내는 단순 기능에서 이미지나 콜--엑션(call-to-action) 버튼에 이르는 자동화된 고객 서비스, e커머스 비서, 심지어 콘텐츠 서비스 등도 가능합니다. 정확도는 지속적으로 업그레이드되고 있으며, 이는 자동화된 컨시어지(concierge)와 비슷하죠. 고객이 더 쉽고 빠르게 자신이 원하는 정보와 서비스를 얻을 수 있게 된 셈입니다. 이 부분은 가장 큰 트렌드이며 '대화형 커머스'로 불리기도 합니다. 모바일 메신저 앱과 인공지능의 힘을 키우는 기회인 것이죠. 미래 쇼핑은 채팅 창 안에서 이뤄질 것입니다.


머신러닝 첫걸음


머신 러닝을 배우는 최고의 방법은 자신의 주변에서 관련 커뮤니티를 찾아보는 것입니다. 또 몇 가지 온라인 자원을 활용해 보는 것도 좋습니다. 다음은 머신러닝에 관해 공부할 수 있는 커뮤니티 및 웹사이트입니다.

- Machine Learning Glossary 
- Facebook DataMining / Machine Learning / AI Group  
- Reddit/Machine Learning 
- Quora Machine Learning 


출처: http://m.blog.naver.com/intelbiz/220859379249

Posted by insightalive
,
요즘 딥 러닝(Deep Learning)이 핫합니다. 몇 년전부터 기계학습(Machine Learning)이 일반인들에게 알려지기 시작하더니, 지금은 기계학습의 한 종류인 딥 러닝이 아예 기계학습이란 단어를 대체할 듯한 기세인 듯 합니다. 특히 구글이 딥 러닝 전문가 기업인 딥 마인드(Deep Mind)를 인수하고, 페이스북이 딥 러닝 대가인 뉴욕대학의 얀 러쿤(Yann LeCun) 교수를 인공지능 센터장으로 모셔갔으며, 중국의 구글이라 불리는 바이두에서도 기계학습 분야의 스타 학자 스탠포드 대학의 앤드류 응(Andrew Ng) 교수를 모셔가는 등, 지금은 바야흐로 딥러닝 인재전쟁에 가까운 모습입니다.

페이스북 인공지능 연구소 수장, 얀 러쿤(Yann LeCun) 교수 (사진출처)

그렇다면 딥 러닝이란 과연 무엇일까요? 오늘은 딥 러닝의 전반적인 개념에 대해 거칠게 한번 훑어보도록 하겠습니다.
(업데이트) 이 글의 후속편인 Convolutional Neural Network에 대한 이해가 업데이트 되었습니다. 이 글을 읽으신 후 꼭 한번 읽어보세요!

출처 : Terry's Facebook, https://goo.gl/Yo3Tvi

딥 러닝은 사실 새로운 개념이 아닙니다. 오래전부터 있어오던 인공신경망(Artificial Neural Network, ANN)과 크게 다를 바 없죠. '인공신경망'이라고 하면 단어에서 나오는 뽀대(?) 때문인지 막 복잡한 뇌 구조가 생각하면서 꿈 같은 이야기가 펼쳐질 것 같은 느낌 드는데요, 사실 인공신경망은 그렇게 판타스틱한 개념은 아닙니다.

그저 선형 맞춤 (linear fitting)과 비선형 변환 (nonlinear transformation or activation)을 반복해 쌓아올린 구조에 불과하죠. 다시 말해, 인공신경망은 데이터를 잘 구분할 수 있는 선들을 긋고 이 공간들을 잘 왜곡해 합하는 것을 반복하는 구조라고 할 수 있습니다. 선 긋고, 구기고, 합하고, 선 긋고, 구기고, 합하고, 선 긋고, 구기고, 합하고...(먹고 뜯고 맛보고 즐기고...-_-..)

파란선과 빨간선의 영역을 구분한다고 생각해보자. 그냥 구분 선을 긋는다면 아마 왼쪽처럼 불완전하게 그을 수 있을 것이다. 하지만 공간을 왜곡하면 오른쪽 같이 아름답게 구분선을 그릴 수 있다. 이처럼 인공신경망은 선 긋고, 구기고, 합하고를 반복하여 데이터를 처리한다. (사진출처: colah's blog)

예를 들어 컴퓨터가 사진 속에서 고양이를 검출해내야 한다고 생각해보죠. '고양이'라는 추상적 이미지는 아마 선, 면, 형상, 색깔, 크기 등 다양한 요소들이 조합된 결과물일 것입니다. 이것은 아마 '선 30cm 이상은 고양이, 이하는 고양이 아님', 또는 '갈색은 고양이, 빨간색은 고양이 아님' 처럼 간단한 선형 구분으로는 식별해 낼 수 없는 문제겠죠. 딥러닝은 이 과제를 선 긋고 왜곡하고 합하고를 반복하며 복잡한 공간 속에서의 최적의 구분선을 만들어 내는 목적을 가지고 있습니다.(1)

그럼 어떠한 규칙으로 선을 긋고 공간을 왜곡하냐고요? 바로 데이터에 근거하는 거죠. 일단 대충 선을 긋고 그것들을 살살살살 움직여가며 구분 결과가 더 좋게 나오도록 선을 움직이는 겁니다. 이러한 과정을 최적화(optimization)이라고 하는데요, 딥러닝은 아주 많은 데이터 아주 오랜 시간의 최적화를 통해 데이터를 학습합니다. 양에는 장사 없다고나 할까요?

여러 개의 뉴런(선형 맞춤 + 비선형 변환)이 합쳐지면 복잡한 형상의 함수도 추정할 수 있다. (사진출처)

사실 인공신경망은 1940년대에 이미 개발된 방법이었고, 1980년대에 역전파(back propagation) 방법이라는 최적화 방법이 소개되며 인공신경망 연구가 절정기애 이른 바 있습니다. 이후 인공신경망은 영상처리, 인공지능, 제어 등 다양한 분야에 적용 되었는데요, 90년대에 이르러 그 연구가 포화 상태에 이르고, 이내 한계가 보이기 시작하더니 곧 암흑기를 만나게 됩니다. 심지어 2000년대 초반 논문 심사에서는 '인공신경망'이란 단어만 나오면 '뭐야, 이거 옛날거자나?'라며 리젝을 하기도 했었으니까요. 그렇게 인공신경망은 사라져 갔고, 2000년 대에는 비선형 함수를 이용한 다양한 커널 방법(e.g. Support Vector Machine, Gaussian Process)들이 기계학습의 대세를 이루게 됩니다.

딥 러닝의 일등 공신, 토론토 대학의 힌톤 교수 (사진출처: 토론토대학)

모두가 인공신경망을 외면하던 암흑기 시절, 그래도 꿋꿋하게 인공신경망 외길을 걸어오던 학자가 있었으니 바로 그가 딥러닝의 일등 공신, 토론토 대학의 제프리 힌톤(Geoffrey Hinton) 교수입니다. 인공신경망이 외면받는 여러 한계들 중 대표적인 문제는 바로 최적화가 쉽지 않다는 점이었습니다. 생각해보세요. 수 만개의 뉴론들이 수 백만개의 선들에 의해 연결되어 있고 여러분들은 이 선들에 적당한 값들을 할당해야 합니다. (일명 parameter training이죠.) 

이걸 최적화 알고리즘을 통해 해줘야 하는데, 최적화 알고리즘이 만약 진짜 최적값이 아닌 잘못된 최적값에 도달하면 어쩌죠? 예를 들어 최고 높은 산봉오리에 올라가야 하는게 목적이라고 하면, 앞만 보고 막 달려서 산 봉우리에 올랐더니 '엥? 이 산이 아닌게벼...?'라고 하면 어쩌냔 말입니다. 인공신경망은 그 구조가 워낙 복잡했기에 이런 문제가 발생했을 때 그야 말로 속수무책이었죠. (그래서 제 예전 지도교수님은 인공신경망을 'black magic'이라고도 하셨으니까요ㅎㅎ)

하지만 힌톤 교수는 이러한 함정(local minima)들을 데이터의 전처리과정(pre-training)을 통해 크게 해결할 수 있음을 밝혔습니다. 이 연구가 바로 "A fast learning algorithm for deep belief nets"라는 2006년의 논문인데요, 힌톤 교수는 이 논문을 통해 인공신경망의 각 층들을 먼저 비지도학습 방법(unsupervised learning)을 통해 잘 손질해주고, 그렇게 전처리한 데이터를 여러 층 쌓아올려 인공신경망 최적화를 수행하면 '이 산이 아닌게벼?' 없이 훌륭한 결과를 만들어 낼 수 있다는 것을 보였습니다.

출처 : Terry's Facebook, https://goo.gl/Yo3Tvi

이 논문을 기점으로 인공신경망 연구는 새 전기가 열리게 됩니다. 특히 인공신경망은 빅데이터와 찰떡궁합이었죠. 2006년 이전의 많은 연구들이 데이터에 대한 구체적 형상 파악에 그 노력을 쏟았었다면, 이젠 그냥 어마어마한 구조의 인공신경망 엄청난 데이터를 막 때려 넣는겁니다. 그리고선 2006년 이후 개발된 세련된 최적화 기법을 써서 몇날 며칠을 학습하면 '짜잔~'하고 최고의 결과를 내놓는다는 거죠. 딥러닝 기법은 이 후 각종 머신러닝 대회의 우승을 휩쓸며 (그것도 압도적인 성능으로...) 자신이 유아독존의 기법임을 과시했고, 현재는 다른 기계학습 방법을 통해 영상처리, 음성인식 등을 연구하셨던 분들 역시 딥러닝으로 대동단결하는 양상을 보이고 있습니다.

기계학습 관련 기업들. 이 중 Facebook, Google, Baidu 등은 모두 딥러닝에 사활을 걸고 있다. (사진출처)

그렇다면 그토록 오랜 암흑기였던 인공신경망을 성공적인 딥러닝으로 환골탈태하게 한 요인은 뭘까요? 그 요인에는 크게 다음과 같은 네 가지를 꼽을 수 있습니다.

1. Unsupervised Learning을 이용한 Pre-training

앞서 힌톤 교수가 2006년에 제안했던 것이 바로 이 방법입니다. Unsupervised learning이라고 하면 (대충 말해서) '이건 사과', '이건 고양이', '이건 사람' 이런 "가르침" 없이 그냥 사과, 고양이, 사람을 다 던져놓고 구분하라고 시키는 학습 방법인데요, 그렇게되면 아무래도 컴퓨터는 비슷한 것끼리 군집(cluster)을 찾게 되겠죠. 알고리즘은 군집화하는 과정 속에서 특이한 놈들은 과감하게 개무시(;;), 결과적으로 노이즈 감소의 효과를 얻게 됩니다. 이렇게 unsupervised learning 방법으로 데이터를 고르게 잘 손질할 수 있고, 이것을 깊은 인공신경망(=딥러닝망)에 넣으면 앞서 제기한 함정들에 훨씬 적게 빠진다는 것입니다. 이것이 바로 딥러닝의 최초 진일보였죠.

2. Convolutional Neural Network의 진화

기계학습은 data→knowledge 로 바로 학습을 진행할 수도 있지만 보통 중간 단계인 특징 추출(feature extraction)을 거쳐 data→feature→knowledge 의 단계로 학습하는 것이 보통입니다. 예를 들어 사진 속에서 사물을 인식하기 위해 픽셀 값에서 먼저 특징적인 선이나 특징적인 색 분포 등을 먼저 추출한 후 이를 기반으로 '이건 사과다' '이건 바나나다'라는 판단을 내리는 것이죠. 이러한 중간 표현단계를 특징 지도 (feature map)이라고 하는데요, 기계학습의 성능은 얼만큼 좋은 특징들을 뽑아내느냐에 따라 그 성능이 매우 크게 좌지우지 됩니다. (이는 이미지 처리 뿐만 아니라 음성 인식, 자연어 분석 등 대부분의 기계학습에 적용되는 이야기입니다.) 

원본 이미지(우측)와 convolutional network에 의해 추출된 특징 지도(좌측) (출처: M. Zeiler)

딥러닝의 성공 요인 중 하나를 꼽자면, 예전엔 사람의 예측에 의해 뽑히던 이 특징들을 지금은 이 마저도 기계학습을 이용해 뽑는다는 것입니다. 다시 말해, 예전엔 '선들을 추출해서 학습시키면 사물인식이 잘 될거야'와 같이 사람이 먼저 이 선들을 추출하는 알고리즘을 만들어 주었는데, 이제는 특징 추출과 학습 모두가 딥러닝 알고리즘 안에 포함되었다는 것이죠. 다단계로 특징을 추출해 학습하는 Convolutional Neural Network은 현재 딥러닝의 대세로서 특히 이미지 인식에서 큰 발전을 이룩하고 있습니다.

3. 시계열 데이터를 위한 Recurrent Neural Network

딥러닝 알고리즘을 크게 세 분류로 나누자 대략적으로 다음과 같이 나눌 수 있습니다.
- Unsupervised Learning을 기반으로 한 방법
  (e.g., Deep Belief Network, Deep Auto-encoder)
- Convolutional Neural Network의 다양한 변형들
- 시계열 데이터를 위한 Recurrent Neural Network와 게이트 유닛들
  (e.g. Long-Short Term Memory (LSTM))
시계열 데이터(Time-series data)란 시간의 흐름에 따라 변하는 데이터를 말하는데요, 예를 들면 주가도 시간에 따라 변하고, 사람의 움직임도 시간에 따라 변하고, 비디오도 시간에 따라 변하고... 이러한 시계열 데이터에서 탁월한 성능을 보여주는 딥러닝 방법이 바로 Recurrent Neural Network (RNN) 입니다. RNN은 매 순간마다의 인공신경망 구조를 쌓아올렸다고 생각하시면 되는데요, 예를 들면 100초면 100개의 인공신경망을 쌓아올린거죠. (그래서 딥러닝 중에 가장 깊은 구조라고도 불립니다.)

예전의 RNN은 인공신경망이 너무 깊어서 오랜 시간 전의 데이터들을 까먹는 현상(vanishing gradient problem) 때문에 학습이 힘들었는데요, Jurgen Schmidhuber 교수의 Long-Short term Memory (LSTM) 이란 게이트 유닛을 각 노드마다 배치하여 이러한 문제를 극복, 현재는 Convolutional Network의 가장 강력한 경쟁 상대로 자리매김하고 있습니다.

매 순간의 인공신경망을 쌓아 올린 Recurrent Neural Network (사진출처)

4. GPU 병렬 컴퓨팅의 등장과 학습 방법의 진보

사실 예전엔 '많은 데이터로 가지고 이렇게 저렇게 하면 아마 잘 될거야...'라는 생각들은 가지고 있더라도 그것을 구현하는 것이 쉽지 않았습니다. 잘 될지 안될지도 모르는데 수십 대의 컴퓨터를 몇 달간 돌리고 있을 수는 없는 노릇이니까요. 하지만 GPGPU (General-Purpose computing on Graphics Processing Units)이란 개념이 개발되며 저렴한 가격으로 CPU와 병렬처리를 할 수 있는 GPU 제품들이 출시되었고, 이를 효율적으로 이용하는 언어구조(e.g. CuDA)들이 개발되며 딥러닝은 그 컴퓨팅 시간이 수십분의 일로 줄어 들었습니다.

연구에 사용할 수 있는 데이터 풀도 많아져 예전엔 기껏해야 몇 만개의 손 글씨 데이터(e.g. MNIST)가 전부이던 것이 지금은 천 만장의 고해상도의 사진들(e.g. ImageNet)은 물론, 필요하다면 구글이나 유튜브에서 자료를 끌어올 수도 있었으니 말이죠.

그리고 인공신경망 알고리즘적인 문제로는 비선형 변환에 쓰이는 Rectified Linear Unit (ReLU)의 개발과 거대 망을 선택적으로 학습하는 Drop-out의 발견이 딥러닝의 성능을 크게 향상 시켰답니다. 이러한 잔기술(?)에 대해서도 할 얘기가 많지만 깊은 얘기는 언젠가 또 해드리도록 하죠. ('언젠가 밥 한번 먹자'와 비슷 한 얘기입니다..;;)

구글은 2012년 1000대의 컴퓨터로 1000만 개의 유튜브 이미지를 딥러닝으로 분석해 사람과 고양이를 구분해 냈다. 내게도 컴퓨터 지원 좀 해달라... (출처 : Q. Le)

지금까지 딥러닝에 대해 알아봤습니다. 요약하자면 딥러닝은 사실 오래 전부터 있어오던 인공신경망과 크게 다를 바 없지만 알고리즘적인 발전과 하드웨어의 발전, 그리고 빅데이터의 힘에 의해 현재 최고 성능을 가진 기계학습 방법으로 평가받고 있으며, 미래 인공지능의 희망으로 떠오르고 있다는 이야기였습니다.

그렇다면 딥러닝 말고 다른 기계학습 방법들은 모두 사라져야 하는 걸까요? 물론 그것은 아닙니다. 일단 딥러닝은 많은 양의 데이터 많은 컴퓨팅 자원을 필요로 합니다. (저도 이번에 80만원짜리 GPU를 구매...ㅠ) 따라서 핸드폰이나 웨어러블과 같은 포터블 기기는 이러한 컴퓨팅이 불가능할테니 딥러닝을 적용하기 쉽지 않겠죠. 또한 로봇과 같이 실시간성(real-time)이 보장되어야 하는 분야 역시 다른 기계학습 방법을 취하는게 좋을 수도 있을 것입니다. (이건 마치 컴퓨터엔 윈도우, 핸드폰엔 안드로이드와 같은 맥락이라 할 수 있죠.)

하지만 그렇다고 딥러닝이 이들 분야와 무관하냐하면 꼭 그렇지만은 않습니다. 여러분이 컴퓨터가 좋아서 구글 검색 결과가 좋나요? 다 구글 서버에서 알아서 처리해주니 그런거지요. 딥러닝도 마찬가지로 만약 디바이스가 사물인터넷을 이용해 머리 좋은 서버와 잘 교신한다면 포터블 디바이스 역시 딥러닝의 은총을 받을 수 있을 것이라 생각합니다. 특히 구글이 로봇의 미래라 생각하는 클라우드 로보틱스를 구현한다면 여러 로봇이 집단 지성을 발휘하며 문제를 해결해 나가는 것을 미래에 볼 수도 있겠지요. (참고: "구글의 새 로봇 수장, 제임스 커프너는 누구인가")

딥러닝, 인공지능의 가장 희망적인 미래임은 분명합니다. 이 분야와 관계 없으시더라도 여러분도 아마 공부 좀 하셔야 할걸요? ^^ 앞서 말씀드렸듯 이 글의 후속편인 Convolutional Neural Network에 대한 이해도 꼭 한번 읽어보세요!

(1) 쉽게 말씀드리려고 제가 딥러닝과 classification 문제를 섞어서 말씀드린 건데요, 사실 딥러닝은 real-value를 다루는 regression문제에도 적용될 수 있습니다. 

* T-Robotics의 글은 facebook과 rss reader로도 받아보실 수 있습니다.


출처: http://t-robotics.blogspot.kr/2015/05/deep-learning.html?m=1

Posted by insightalive
,

지난 공학트렌드에서는  공지능의  분야   러닝  대해 살펴보았다 . 딥 러닝의  의와 학습 방법  유형 에 대해 알아 보고 적용 사례를 살펴보면서  용 방법을 고민해보았다 . 이번 공학트렌드에서는 머신 러닝에 대해 알아본다 . 머신 러닝에는 다양한 개념과 방법이 존재하기 때문  주요 한 개념과  주 사용되는 알고리즘 중심으로 알아본다 . 지난 공학트렌드의 딥 러닝도 머신러닝의 한  분이다 .

 

머신 러닝의 정의

사전적인 정의를 살펴보면, 백과사전에서는 머신 러닝을 인공지능의 연구 분야  하나로, 인간의 학습 능력과 같은 기능을 컴퓨터에서 실현하고자 하는 기술  기법이다 라고 정의한다. 조금 좁혀서 정의하면 엄청난 양의 데이터를 스스로 학습하고 정리하여 문제에 대한 해답을 찾아내는 기법이다 라고 할  있다. 최근에는 학습된 내용을 기반으로 미래를 예측 하는 것까지 범위에 포함시키고 있다.

사람은 고양이가 어떤 생김새인지 알고 있으면, 처음  고양이라도 고양이로 인식한다(그림 1 참조). 하지만, 기계의 경우 고양이마다 고양이라는 인식표를 붙여서 데이터베이스에 저장해야 한다(그림 2 참조).

 

<그림 1> 사람의 고양이 인식 

 

< 그림 2> 기계의 고양이 인식

 

 

머신 러닝은 기계에게 고양이를 반복해서 알려주고 사람처럼 처음  고양이도 사람처럼 고양이로 인식하도록 하는 것이다.  , 고양이를 반복 학습시키기 위해서는 다양한 고양이 데이터가 필요하고, 이를 기억하기 위해서 학습 알고리즘이 필요하다. 기계는 학습 알고리즘을 통해 학습 데이터를 반복 학습하, 일정 수준 이하의 오차로 줄어들면 기계는 학습 결과를 최종 저장하게 된다.


머신 러닝의 중요성 증가 

초기 머신 러닝이 성공하지 못했던 이유는 크게  가지로 본다. 학습 알고리즘이 있었지만 충분한 학습에 필요한 데이터가 부족했던 것과 당시의 컴퓨터 사양이 낮아 학습하는 시간이 너무 오래 걸렸다. 지금은 빅데이터가 존재하고 컴퓨터 사양이 어느정도 보장되었기 때문에 머신 러닝의 관심이 다시 높아지고 있다.

마이크로소프트 (Microsoft) CEO 사티야 나델라는 미래의 시대를 여는 기술로 사물인터넷, 클라우드 컴퓨팅, 빅데이터, 머신 러닝을지목했다. 사물인터넷이 대중화되면서 방대한 데이터가 스스로 생성되며 빅데이터화 되고, 이를 관리하기 위해 클라우드 컴퓨팅이일반화 되고 있다. 생성된 빅데이터는 사람이 분석하지 못하고 기계가 대신 분석해야  정도로 많아지기 때문에 빅데이터를 스스로학습하면서 분석하는 머신 러닝의 중요성은 더욱 증가할 것으로 보인다. 빅데이터와 머신 러닝은 미래를 이끌어가는 주요 ICT 기술이라고   있다.

 

 

머신 러닝의 학습 방법

머신 러닝에는 3가지 학습 방법이 있다.


지도 학습 (Supervised Learning) 

머신 러닝에서 일반적으로  사용되는 학습 방법으로 기계가  학습 할  때, 학습 결과가  이미  정해진 경우를 지도 학습이라고 한다.  위의  <그림 2>와 같이 고양이 사진을 보여주며 계속 “이것은 고양이다”라고 알려주는 것이다.

지도 학습을 설명할 때 아파트를 예로 많이 드는데, 예를 들어 “서울에 있는 24평 아파트의 가격은 5억이다”라고 결과값을 정해놓는 경우다. 사람이 학습에 개입을 하기 때문에 정확도가 높다는 장점이  있지만  사람이 직접 학습 데이터를 만들어야 하기 때문에 시간도 오래 걸리고 학습 데이터 양이  많지 않다 는 단점이 있다.

 

<그림 3> 지도 학습의 속성

 

 

지도 학습에는 크게 회귀 문제(Regression Problem) 분류 문제(Classification Problem) 있다. 목적값이 연속성을 가질  회귀문제(그림 4 참조) 하고, 목적값에 연속성이 없고 끊어지는 값을 가질  분류 문제(그림 5 참조)라고 한다.

 

<그림 4> 회귀 문제(Regression Problem)

 

 

<그림 5> 분류 문제(Classification Problem)

 

 

비지도 학습(Unsupervised Learning) 

학습 데이터에 목적값이 없는 학습 방법을 말한다. 구분 데이터 간의 유사성에 따라 데이터 요소를 군집화하거나 밀도를 추론한다. <그림 6> 좌측을 살펴보면, “O” 양성”, “X”  음성이라고   명확하게 구분을   있지만, 우측을 살펴보면 모두 “O”  표시되어 있어 구분을   없다. 대신에  개의 군집으로 나눌  있는데 이러한 것을 군집화 (Clustering)라고 한다. 군집화에서 나아가 데이터가 흩뿌려져 있을  분포 추정(Underlying Probability Density Estimation)이라고 한다.

 

<그림 6> 지도 학습과 비지도 학습의 비교

 

 

강화 학습(Reinforcement Learning) 

지도 학습과 비지도 학습은 사람이 구분을 제시한 것으로 학습했지만 강화 학습은 현재의 상태(State)에서 어떤 행동(Action) 취하는 것이 최적인지를 학습하는 것이다. 행동을 취할 때마다 외부에서 보상(Reward) 주어지는데, 보상이 최대화 되도록 학습을반복한다. 일반적으로 지도 학습의 결과를 가지고 강화 학습을 이어간다.

 

< 참고 >

  • 강화 학습의 예

대표적으로 게임 인공지능을 만드는 것을 생각해볼  있다. 체스에서 현재 나와 적의 말의 배치가 상태가 되고 여기서 어떤 말을 어떻게움직일지가 행동이 된다. 상대 말을 잡게 되면 보상이 주어지는데, 상대 말이 멀리 떨어져 이동할 때까지의 시간이 필요할  있으므로, 상대 말을 잡는 보상은 당장 주어지지 않는 경우도 생길  있다(지연된 보상). 따라서 강화 학습에서는 당장의 보상이 조금은 적더라도, 나중에 얻을 값을 포함한 보상의  합이 최대가 되도록 행동을 선택해야 하며, 게다가 행동하는 플레이어는 어떤 행동을 해야  보상의합이 최대화되는지 모르기 때문에, 미래를 고려하면서 가장 좋은 선택이 뭔지 행동을 여러 방식으로 수행하며 고민해야 한다. 좋은 선택이 뭔지 행동을 찾는 것을 탐색, 지금까지 나온 지식을 기반으로 가장 좋은 행동을 찾아 그것을 수행하는 것을 활용한다고 하여, 강화 학습을 푸는 알고리즘은   사이의 균형을 어떻게 잡아야 할지에 초점을 맞춘다.  방법들과는 다르게 실시간으로 학습을 진행하는 것이 일반적이다.

자료 : Wiki


강화 학습이 알파고의 머신 러닝의 기본적인 방법으로 사용되었다. 바둑알이 놓여지는 행동마다 보상과 지연된 보상이 발생하고 보상의 합이 최대가 되는 곳에 바둑알을 놓게 되는 방식이다. 바둑알이 놓여진 결과를 많이 알수록 강화 학습의 효과는  커질  있다. 알파고가 수십만 번의 기보를 학습한 효과가 여기에서 나타나는 것이다.

 

머신 러닝에서 활용되는 자세한 알고리즘은 아래 사이트를 참고한다.

 

< 참고사이트 >


머신 러닝 알고리즘



머신 러닝의 사례

최근 들어 머신 러닝 적용 사례가 늘어나는 추세다. 가장  이유는 기업에서 빅데이터가 많이 쌓이고 이를 활용하려는 노력이 많이나타나고 있기 때문이다. IoT  확대로 머신 러닝의 기회는  늘어날 것으로 보인다.


넷플릭스의 컨텐츠 추천 

2000 년말부터 넷플릭스와 아마존은 머신 러닝을 통해 사용자에게 비디오 추천 기능을 제공했다.  중에서도 추천 정확도를 높이기 위해 머신 러닝과 데이터 마이닝 경진대회를 개최했다. 이후 서비스 가입자들로부터 얻어진 빅데이터를 기반으로 넷플릭스 퀀텀이론이라는 기법을 활용하여 컨텐츠 추천 서비스를 하고 있다 (그림 7 참조).

 

<그림 7> 넷플릭스의 컨텐츠 추천 방법

 

 

분류된 장르 카테고리는 제작된 지역, 작품의 특징을 수식하는 부사(Adjectives), 명사(Noun), 배경(Set in), 무엇에 관한(About) 영화인지, 시청 연령대 등과 같은 정보로 구성되었고, 이러한 분류법에 의해 생성되는 장르 카테고리는 로맨틱한 중국 범죄 영화(Romantic Chinese Crime Movies)’ 같이 특징이 잘 나타나도록 구체적으로 저장되었다. 넷플릭스 장르 카테고리는  76,897개에 이르는 것으로 나타났다. 사용자가 최초 접속  취향 카테고리를 3  선택하면, 컨텐츠를 보면 볼수록 수많은 태그를 학습하면서 취향에 맞는 컨텐츠를 자동으로 추천해준다.

넷플릭스 학습 방법의 특징은 비지도 학습 방법으로 사용자의 선호도가 높은 카테고리의 군집화가 일어나기 때문에 취향 카테고리를 찾아낼  있고, 그에 맞는 컨텐츠를 추천하게 된다.


페이스북의 얼굴인식 

페이스북은 사진에서 사람의 얼굴을 정확히 인지할  있는 기능을 머신 러닝으로 구현하였다. 얼굴 인식률은 98% 정확성을 나타내고, 8  건의 사진을 5  이내에 확인 가능하다. 정면 사진이 아니라도 머신 러닝으로 사진  다른 요소와 연계해서 분석한다.

유명인의 사진 DB 기반(13,000  ) 헤어스타일, 안경,  등을 변수로 학습시켜 사람이 아닌 물체와 얼굴을 구분할  있도록 하였고, 원본과 비교본 이미지 사이에 유사성을 설정하고 머신 러닝 알고리즘을 활용하여 학습하도록 하였다.

페이스북은 세계에서 가장 많은 양의 사진 데이터를 보유한 것으로 알려지고 있다. 이를 토대로 사람 얼굴을 인식하는  페이스(DeepFace) 프로그램을 개발했다. 정확도는 인간 눈의 인식율과 거의 일치한다. 기본적으로 얼굴의 , , 입의 거리나 높이 등을파악하는 방법을 썼고 머신 러닝을 통해 불규칙한 데이터를 보정하였다(그림 8 참조).

 

<그림 8>  페이스 (DeepFace) 프로그램의 인식

 

 

페이스북의 학습 방법의 특징은 지도 학습  강화 학습을  것으로 반복적인 학습을 통해 이미지 인식율을 높였다. 현재는 오류가거의 없을 정도의 정확도를 보이고 있다.

 

< 참고사이트 >


페이스북에 사용된 기술 소개 사이트



마무리 하며

최근 수년 동안 빅데이터는 ICT 산업에서 가장 주목받는 분야였다. 과거에는 상상   없을 만큼의 데이터를 분석해 객관적인 데이터로 정리하고 미래까지 예측   있다는 것은 빅데이터에 대한 무한한 기대감이 있었다. 하지만, 워낙 많은 데이터를 다뤄야 하다보니 사람의 능력으로 감당하기 어려웠다. 머신 러닝은 사람의 한계를 넘는 빅데이터를 다루고, 빅데이터를 활용한 새로운 정보까지알아내는 능력도 갖추고 있다. 학습 알고리즘이  정교하게 완성된다면 예측 분야에서  많은 역할이 기대된다.

지금까지 2회에 걸쳐 인공지능 분야에서 주목받고 있는 머신 러닝과  러닝에 대해서 살펴보았다. 불과 얼마 전까지도 인공지능은아직  것으로만 알려져 있었지만, 빅데이터의 등장은 인공지능을 현실화 시키는 도화선이 되었고, 기하급수적으로 늘어나는 빅데이터 양은 자동 학습에 기반한 머신 러닝과  러닝 발전에 지대한 영향을 끼칠 것으로 보인다. 앞으로 더욱 사람과 유사한 예측과판단을  것으로 보이는 인공지능의 발전은 다양한 산업 발전에 기여할 것으로 기대된다.


출처: http://www.sw-eng.kr/member/customer/Webzine/BoardView.do?boardId=00000000000000040877&currPage=&searchPrefaceId=&titOrder=&writeOrder=&regDtOrder=&searchCondition=TOT&searchKeyword=

Posted by insightalive
,
◆ 디지털 경영으로의 혁신 / ① 디지털 미래의 7가지 모습 ◆ 

 기사의 0번째 이미지
최근 대한민국 국민은 디지털이 세상을 어떻게 바꿔나갈지에 대해 시각적으로 명확하게 각인되는 특별한 경험을 했다. 일주일 이상 전 언론이 떠들썩하게 생중계한 알파고와 이세돌 9단의 바둑대국을 통해서다. 디지털 미래의 한 단면, 즉 인공지능(AI·Artificial Intelligence)이 인류의 미래 생활에 어떻게 자리 잡을지에 대해 경험한 것이다. 중3 자녀를 둔 아줌마들이 알파高가 어디에 있는지 찾고 있다는 유머가 나돌 정도로 디지털 미래 세상을 전 국민적으로 공부한 것이다. 예전부터 고강도 경쟁사회에서 한국 기업들은 변화에 민감하게 대응하며 경쟁력을 키워 왔다. 

1980년대 제조현장 혁신에서 시작해 1990년대 IT(Information Technology)시대 초기에 새로운 경영관리 IT시스템인 전사적자원관리(ERP), 공급망관리(SCM), 고객관계관리(CRM), 제품데이터관리(PDM) 등을 공격적으로 받아들이고 적용하며 글로벌 선도기업들과 경쟁해왔다. 2000년대 초에는 이비즈니스(e-business), 닷컴 벤처 광풍이 불어 큰 변화의 상흔을 남기기도 했다. 글로벌 금융위기 이후 기존 주력 산업의 위기 속에 새로운 변화를 모색하는 것은 전 산업의 과제가 되었다. 클라우드컴퓨팅, 사물인터넷(IoT), 모바일, 소셜네트워크서비스(SNS), 빅데이터, AI, 머신러닝, 로봇기술, 핀테크 등 디지털 테크놀로지가 주도하는 4차 산업혁명 환경하에 어떤 변화와 기회들이 있고 우리가 어떻게 대처하며 경쟁력을 만들어가야 하는가. 

EY는 2015년 글로벌 리서치를 통해 전 세계 모든 사람에게 영향을 미치는 거대한 변화의 흐름을 6가지 메가 트렌드로 정의했다. 디지털 미래(Digital Future), 기업가 정신의 부상(Entrepreneurship Rising), 글로벌 시장(Global Marketplace), 도시화(Urban World), 자원 활용(Resourceful Planet), 헬스케어 산업의 혁신(Health Reimagined)으로 향후 기업, 사회, 문화, 경제에 이르기까지 광범위한 영역에서 변화를 초래할 것으로 분석했다. 

이 중에서도 특히 디지털 미래가 다른 5가지 요인에 가장 많은 영향을 미치는데, 그 영향은 아래의 7가지로 정리할 수 있다. 

 기사의 1번째 이미지
1. 디지털 전환은 수익 모델을 포함한 비즈니스 모델을 변화시키고 있다. 2013년 이코노미스트 인델리전스 유닛(Economist Intelligence Unit)의 조사에 의하면 기업의 약 80%가 고객이 제품과 서비스를 접하는 방식이 변화하고 있다고 했고, 이들 기업 중 51% 이상이 제품과 서비스에 대한 가격 정책과 전달 방식을 바꾸고 있다고 응답했다. 

2. PC 사용이 감소하고 모바일 기기 사용의 증가로 '모바일 퍼스트(Mobile First)' 세상으로 변화한다. 모바일폰을 통한 웹페이지 뷰가 48개국에서 PC 사용을 초과했고, 에릭슨에 따르면 모바일 기기를 통한 통신망 접속이 현재 20억건에서 2019년에는 80억건으로 증가할 것으로 예측된다. 

3. 디지털 변환과 데이터량의 폭발은 비즈니스와 고객 간 관계를 근본적으로 변화시킬 것이다. SNS, 온라인 쇼핑, 위치기반정보 등을 활용해 개별화된 새로운 고객 경험을 창조하는 기업이 차별적 경쟁력을 갖게 될 것이다. 

4. 디지털 파괴는 시장구조 및 산업의 경쟁구도를 변화시키고 있다. 소비자와 공급자가 즐겨 찾는 플랫폼을 보유한 기업이 시장을 지배하는 시대가 도래할 것이다. 카카오톡 플랫폼이 택시 서비스의 경쟁구도를 바꾼 것처럼 2018년까지 대부분의 산업 내 상위 20개 기업 중 3분의 1은 산업별 특화 플랫폼에 의해 퇴출될 것으로 예상된다. 

5. 사이버 범죄가 급증해 데이터, 지적재산, 개인정보보호는 더욱 어려워질 것이다. 미국 국제전략문제연구소는 2014년 디지털 범죄와 지적재산 도용으로 인한 비용을 연간 3750억~5750억달러로 추산했고, 대다수 국가의 국내총생산(GDP)을 갉아먹는 것으로 분석했다. 사이버 보안에 대한 요구는 폭발적으로 증가할 것이며 여기에 큰 사업 기회가 있다. 

6. 디지털 세상에서 일하는 형태와 인재 획득 방법이 민첩해질 것이다. 2020년이 되면 밀레니얼 세대(1980년대 초반부터 2000년대 초반 출생한 세대)와 Z세대(1995년 이후 태어난 19세 미만의 청소년)가 노동인구의 절반 이상을 차지할 것이다. 자율성을 중요하게 생각하는 이들의 특성으로 인해 유연한 노동 형태가 일반화돼 인적 네트워크를 잘 오케스트레이션하는 것이 기업활동에 필수 요소가 될 것이다. 

7. 디지털과 로봇 기술은 급속하게 사람을 대체할 것이다. 향후 20년 내 자동화로 인해 선진국 직업의 47%가 위험에 놓인다는 분석도 있다. 

 기사의 2번째 이미지
우리 사회와 우리나라 기업들이 디지털 미래의 7가지 트렌드를 도약과 사업의 기회로 잘 활용하고 있는지 질문해 본다. 경제구조적 한계, 각종 규제 등 제도적 제약, 계층적·관료적 조직문화, 기업가 정신의 퇴조 등이 디지털 미래를 가로막고 있는 것은 아닌지. 전 세계 모든 사람에게 영향을 미치는 거대한 변화의 흐름의 중심에 '디지털'이 있다. 

그렇기에 산업별 생태계는 디지털화돼야 한다. 지난해 말 EY 중국 리더와 동북아 제조강국인 우리가 2000년대 후반 독일에 한발 앞서 산업 4.0의 이니셔티브를 만들었어야 하지 않았는가라는 아쉬움을 토로한 적이 있다. 

최근 몇 년간 수행한 빅데이터 디지털 혁신 사례들을 보면 신기술을 이해하고 비즈니스 혁신 기회를 찾아내는 것은 전문가 양성 없이는 불가능하다. 

이제 디지털 미래를 위한 다음 단계의 혁신에 도전해야 한다. 개별 조직과 기업에는 또 다른 지난하고 끈질긴 도전의 여정이 될 것이다. 성공적인 한국의 디지털 미래를 그려본다. 

[조상욱 EY한영 어드바이저리본부장 부대표]


출처: http://news.mk.co.kr/newsRead.php?no=292142&year=2016

Posted by insightalive
,

KT가 상용화할 `LTE48-M`과 SK텔레콤이 전국망에 쓸 `로라(LoRA)`는 모두 사물인터넷80(IoT) 일종인 `소물인터넷(IoST)` 기술에 속한다. IoST는 모든 IoT 서비스가 빠른 통신 속도를 갖출 필요는 없다는 점에 착안해 개발된 기술이다. 

속도를 늦추면 출력이 낮아진다. 배터리 수명이 늘어나고 칩과 단말 가격도 싸진다. 실생활에 적용할 서비스 범위와 영향을 고려하면 IoST가 IoT 생태계 확산을 책임진다고 해도 과언이 아니다.

KT가 상용화할 `LTE-M`과 SK텔레콤이 전국망에 쓸 `로라(LoRA)`는 모두 사물인터넷(IoT)의 일종인 소물인터넷(IoST) 기술에 속한다. IoST는 모든 IoT 서비스가 빠른 통신 속도를 갖출 필요는 없다는 점에 착안해 개발된 기술이다. <KT가 상용화할 `LTE-M`과 SK텔레콤이 전국망에 쓸 `로라(LoRA)`는 모두 사물인터넷(IoT)의 일종인 소물인터넷(IoST) 기술에 속한다. IoST는 모든 IoT 서비스가 빠른 통신 속도를 갖출 필요는 없다는 점에 착안해 개발된 기술이다.>

◇기존망vs전용망 

LTE48-M은 국제표준화단체 3GPP66에서 표준화를 진행 중이다. LTE 속도기준인 카테고리1(Cat.1)과 카테고리0(Cat.0), 카테고리M(Cat.M)이 LTE-M 기술이다. Cat.1 속도는 다운로드 기준 10Mbps, Cat.0은 1Mbps다. 더 발전한 Cat.M은 220kbps까지 속도가 내려간다. Cat.1과 Cat.0은 표준화가 완료됐다. 곧 Cat.1 단말이 출시된다. 

기존 LTE망과 주파수를 쓰기 때문에 별도 망을 설치할 필요가 없는 게 최대 장점이다. 검증된 IoT80 기술을 써 기술적 완성도도 높다. 

반면 일각에서는 IoT 전용망이 아니기 때문에 서비스 사용이 늘어나면 기존 이동통신 가입자에 영향을 미칠 것이란 우려도 나온다. 

SK텔레콤이 밝힌 IoT 전국망 구축 이후 공공부문 서비스 적용 예시 <SK텔레콤이 밝힌 IoT 전국망 구축 이후 공공부문 서비스 적용 예시>

로라얼라이언스를 중심으로 개발되는 로라는 IoST에 최적화된 기술이다. 주로 900㎒대역을 사용한다. 전국에 설치하려면 초기 망 구축비용이 필요하지만 기존 통신망과 비교하면 매우 저렴하다. 단말과 칩 가격도 싸다. 통신속도는 0.3kbps에서 5kbps, 전파 도달 거리는 최대 20㎞다. 어디서나 다양한 IoT80 서비스를 제공할 수 있다. 

통신업계는 LTE48-M보다 로라가 IoST에 더 적합한 기술로 보고 있다. 국제표준화단체와 글로벌 기업이 0.2㎒ 폭 미만 좁은 대역에서 LTE-M을 제공하는 `협대역(NB) IoT` 기술을 개발 중인 것도 이 때문이다.

SK텔레콤이 밝힌 IoT 전국망 구축 이후문화, 관광 부문 서비스 적용 예시 <SK텔레콤이 밝힌 IoT 전국망 구축 이후문화, 관광 부문 서비스 적용 예시>

IoT80에서도 주도권 경쟁 

SK텔레콤이 로라 전국망을 설치하고 KT가 LTE48-M을 상용화하면 우리나라는 3G, LTE에 이어 IoT 시대 주도권 확보에도 한 발 다가설 수 있다. LTE-M 상용화, 로라 전국망 설치는 세계에서도 가장 빠른 행보다.

IoT 전용 과금 체계가 확립되고 기존엔 볼 수 없었던 신규 서비스가 늘어나면 국내 IoT 시장도 확산일로에 접어들 전망이다. 소형 기지국과 통신장비, 모듈, 단말, 서비스, 컨설팅 등 관련 정보통신기술(ICT) 업계도 새로운 성장기회를 발굴할 수 있다. 

사물인터넷 전국망, SKT `로라` vs KT `LTE-M` 격돌

SK텔레콤과 KT는 중소 전문업체와 협력한다. 유망한 벤처와 스타트업을 발굴하고 서비스 주체로 나설 수 있도록 할 계획이다. SK텔레콤은 전용망 구축 외에도 IoT80 통합관제센터 구축, 전용 모듈 개발, IoT 서비스 활성화 지원 펀드 조성 등 `IoT 토탈 케어 프로그램`을 추진한다고 밝혔다.

정부도 IoT 산업 활성화에 힘을 보탠다. 미래창조과학부는 IoT 용도로 사용하는 900㎒ 대역 출력 기준을 기존 10㎽에서 최대 200㎽로 높인다. 통신 출력 상향은 통신사와 IoT 개발사의 오랜 바람이었다. 출력이 높을수록 전파도달 거리가 길기 때문에 넓은 커버지리에서 서비스를 할 수 있다. 인프라 구축비용도 절감된다.

사물인터넷 전국망, SKT `로라` vs KT `LTE-M` 격돌

글로벌 장비제조사와 통신사, 칩 개발사는 이미 IoST와 IoT80 상용화 단계에 도달했다. 통신업계는 국내 이통사가 LTE48-M, 로라를 상용화하고 정부 지원이 뒷받침된다는 것은 매우 의미 있는 일이라고 평가했다.

안호천 통신방송 전문기자 hcan@etnews.com 

<소물인터넷 개요(자료:업계종합)> 

소물인터넷 개요(자료:업계종합)


출처: http://www.etnews.com/20160316000180

Posted by insightalive
,

지금까지 기계는 인간 육체의 연장이었다. 컴퓨터의 등장으로 인간 두뇌의 연장이 시작되었고, 공상과학(SF)의 상상력에서 인공지능(AI)이라는 실질적 연구 분야가 생겨났다. 이세돌의 패배에 충격을 토로하기 전에 인공지능이란 의미부터 명확히 인식해야 한다. 구글의 바둑 인공지능 프로그램 알파고는 새로운 AI 기술이 아니라, 빅데이터를 이용한 버전업, 돌연변이가 아닌 AI의 진화에 지나지 않는 것이다. 밥솥이나 냉장고에 사용하고 있는 유비쿼터스의 자동제어장치는 단순한 AI의 단계로 인간에 위협이 되지 않는다. 이걸 AI라고 부르지 않는 것과 마찬가지다. 알파고와 이세돌의 대결은 사람과 사람의 대결을 사람과 기계의 대결처럼 보이게 하는 이벤트일 뿐이다.

사람이 숨어있는 체스 기계

흥미롭게도 이 같은 시도는 약 250년 전부터 있었다. 1770년, 체스 자동장치 ‘더 투르크(The Turk)’가 발명됐다는 소식이 유럽을 강타한다. 오스트리아의 마리아 테레지에 여제까지 뜨거운 관심을 보일 정도로 큰 화제가 됐다. 놀라운 실력으로 나폴레옹 보나파르트와 벤자민 프랭클린까지 꺾어버린 이 체스 기계는 유럽과 미국을 순회하며 큰 돈을 벌었다. 사람들이 놀라움과 공포를 느낀 기계의 지능이 실은 거울의 반사기능을 이용한 체스 마스터들의 치밀하고도 정교한 사기행각임이 드러나 불태워지기까지 무려 84년이나 걸렸다. 프랑켄슈타인 콤플렉스의 유구한 역사를 보여주는 사건이다.

알파고의 뒤에도 역시 프로그래머라는 인간이 있다. 지금까지 바둑을 두었던 모든 사람들의 정보를 컴퓨터에 모아놓고 이세돌 9단과 대국을 시킨 것이다. 열 사람이 모이면 천재 하나를 이기는 인간의 집단지성을 보여준 예이다. 암산왕이 컴퓨터와의 계산시합에서 졌다고 해서 인간의 지능이 패배한 것은 아니다. 인간이 계산기에 진 것이 아니라 계산기를 이용하는 것이다. 이세돌을 인간의 대표로 보고 승패에만 집착하는 것은 대중적 흥미에는 부합할지 몰라도 고도의 지적 게임을 하는 학문 분야마저 이런 포퓰리즘에 끌려가면 정말 ‘인간의 지능’을 앞선 ’인공지능’에 지배를 받는 날이 올 것이다. 우리가 이제껏 인공지능이라고 해온 것은 손글씨도 제대로 못 읽어 엉뚱하게 텍스트 변환을 하거나 유전자를 ‘유전 아들’로 번역하는 등 아주 우스운 수준이었다. 알파고를 만든 구글도 얼굴 인식을 제대로 못해 흑인을 고릴라로 식별하고 사과하는 소동을 벌이지 않았던가. 알파고와 같은 지금의 AI는 학습시킨 그 한 가지만 가능하지만 생명체의 인텔리전스는 그런 것이 아니다. 학습시킨 한 가지뿐만 아니라 모든 것을 스스로 학습할 수 있을 때 AI가 인간지능을 앞서게 된다. 아직은 인간 대 인간의 싸움이며, 이세돌과 하사비스의 싸움이다. 동양의 아날로그 직관과 서양의 디지털 분석력과의 싸움이다.

250년전 체스 자동기계 '더 투르크'.

인공지능의 지배, 특이점에 왔다

우리가 우려해야 할 것은 생명공학(BT), 정보기술(IT), 나노기술(NT) 이 세 가지가 결합하는 것이다. 인간은 그동안 어떻게 하면 기계를 더 똑똑하게 만드나, 인간의 뇌와 비슷하게 만드나 이것만을 고민해왔다. 하지만 BT와 NT가 놀라운 수준으로 발달하면서 인간의 몸과 같고 인간의 판단력보다 우수한, 마음을 제외한 모든 것을 가진 AI를 지닌 인공생명체-로봇의 출현이 가능해졌다. 그동안 인간은 기계가 인간처럼 되는 칩을 만들면 얼마나 편해질까만 생각했다. 하지만 육체에 의식까지 들어가 추론을 하고 판단을 내리는 존재가 되면 ‘터미네이터’ ‘이글 아이’처럼 인간이 만든 기계가 인간을 역습하는 공상과학영화의 세계가 현실이 되는 것이다. 이런 인공생명이 각 분야별로 만들어지면 시인, 작곡가, 안무가 등 모든 직종이, 특히 변호사가 앞이 깜깜한 상황이 된다. 모든 판례를 종합, 분석해 정확한 승소율을 계산해내는 AI가 등장하게 되면 변호사라는 직업 자체가 사라진다.

라면 물은 100도씨에서 0.1도씨만 모자라도 끓지 않는다. 99.9도씨에서도 끓지 않다가 0.1도씨가 더해지면 폭발하듯 끓어오른다. 이 비등점을 인간의 과학기술분야에서는 싱귤러 포인트(singular point·특이점)라고 한다. 지금이 바로 기술 발달의 싱귤러 포인트다. 지난해부터 학계의 중요한 화두 중 하나가 AI였다. 식자층을 주요 독자로 하는 과학전문지 와이어드가 AI를 별첨 특집기사로 다뤘다. 이미 AI가 AI를 앞서는 날이 10년 내에 온다는 것이다. 지금의 젊은이들은 생전에 터미네이터를 실제로 맞닥뜨리게 될 것이다. 공상과학영화가 아닌 고급 전문지에서 이것을 이슈로 다루고 있는데, 우리는 알파고와 이세돌의 바둑을 통해서 그것을 실감하고 마치 신기술이 나타난 것처럼 이상현상을 보인다. 이것은 일종의 ‘쏠림 현상’의 한국적 풍조라고 할 수 있다.

알파고와 이세돌의 대국이 한국 사회에 의미가 있다면 이것을 실감하도록 유도해주는 역할을 했다는 것이다. 영화관에서 공상과학영화를 보며 막연하게 농담처럼 해왔던 걱정이 현실화할 수도 있다는 것을 깨닫게 됐다. 그동안 한국인들은 의식주, 선거와 정치, 북핵 문제 같은 것에만 관심을 쏟았다. ‘홀로그램이 광화문에서 시위도 하는 세상이구나’ 정도로 알고 있었는데, 홀로그램의 유령들이 거꾸로 독재를 할 수도 있는 세상이 올지도 모른다는 불안과 불길한 느낌을 마침내 갖게 된 것이다.

그러나 생명은 법칙화할 수 없다

이세돌의 패배보다 중요한 것은 구글의 이벤트가 한국에서 벌어졌다는 것이다. 알파고를 개발한 딥 마인드 대표 데미스 하사비스는 체스 신동으로, 어머니가 중국계인 영국인이다. 그래서 알파고는 중국식 바둑에 맞춰 개발됐고, 이세돌도 중국식 규칙에 따라 대국에 임했다. 그런데 알파고의 ‘고’는 바둑을 뜻하는 일본어 ‘碁’에서 나왔다. 중국에서는 인터넷 검열 때문에 구글의 생중계가 어려워서 성사되지 않았고, 일본에서는 대국을 하지 않은 이유가 뭘까.

일본 최고의 바둑기사인 기야마 유타 9단은 최근 성적이 좋지 않고, 기풍도 예상이 가능한 정석 스타일이다. 끼, 감, 깡으로 즉흥적 스타일의 바둑을 두는 선수는 한국의 이세돌이다. 알파고가 서구의 디지털 지능을 대표한다면 이세돌은 한국인의 아날로그 지능을 대표한다 할 수 있다. 아날로그 마인드, 끼와 감과 직관은 한국인이 가장 뛰어나다는 것을 구글이 인정한 셈이다. 인공지능이라는 골리앗 앞에 선택된 다윗이 이세돌이었다는 것은 디지털 시대를 살아가는 한국인의 아날로그 마인드, 즉 디지로그가 인공지능을 헤쳐나갈 수 있는 대표성을 보여주는 것이다.

무당벌레는 반드시 풀이나 나무의 접점에서 난다. 하지만 실제 실험을 해보면 10마리 중 8, 9마리만 이 법칙에 해당하고, 1, 2마리는 예외다. 생명체를 대상으로 한 법칙은 아무리 엄밀하게 규정해도 90%밖에 적중하지 못한다. 이것이 퍼지(Fuzzy)이론이다. 선풍기도 같은 풍량을 지속하면 시원하게 느껴지지 않지만, 바람의 세기와 방향에 변화를 주면 시원하다. 지능을 가진 생명체는 끝없이 변화하는 자기조직을 통해 진화한다. 이것은 물리법칙이 절대로 따라하지 못하는 것이다. NT와 BT와 IT를 결합해 만든 인공생명, 안드로이드는 패턴인식을 통해 의식과 감정까지도 흉내낼 수 있다. 특정 단어를 들으면 슬퍼하거나 상대방이 화를 내면 얼굴을 찡그리게 하는 식으로 반응을 설계할 수 있다. 하지만 감정을 지닐 수는 없다.

걱정하지 말자. 우리에게는 디지로그가 있다. 그들에게는 디지털뿐이다. 전지전능한 터미네이터는 눈물을 이해하지 못했다. 데이터베이스 기술은 확률과 통계의 수학적 기술이다. 아인슈타인이 찾아낸 ‘E=MC²’은 물리법칙이지만, 생명체는 다르다. 굼벵이가 어떤 경로로 기어갈지는 어떤 통계로도, 빅데이터로도 예측하기 힘들다. 생명을 믿을 수밖에 없다. 38억년을 살아온 생물의 유전정보가 디지털 정보와 대결해서 물질이 생명체를 지배하는 ‘기술중세사회’에 직면하고 있는 것이 사실이다.

하지만 우리가 진실로 걱정해야 할 것은 IT 강국, 유전공학 강국이었던 대한민국이 그동안 무엇을 했는가다. 만시지탄이지만 이제라도 깨닫고 다시 시작하자. 기술발전이 신통한 단계에서 비통한 단계로 넘어왔지만, 믿자, 인간의 생명을. 인공지능을 헤쳐나갈 수 있는 것은 디지로그고, 한국인에게는 그 디지로그가 있다.

이어령 전 이화여대 석좌교수. 신상순기자 ssshin@hankookilbo.com

정리=박선영기자 aurevoir@hankoolilbo.com

한소범 인턴기자


출처: http://hankookilbo.com/m/v/58e5561fc0cc4a29bb8e1d3562e1c67b

Posted by insightalive
,
[이슈 분석]네트워크 가상화 시장, 주도권 확보 경쟁 불붙어

SK텔레콤·KT·LG유플러스가 차세대 통신인 5G 주도권을 확보하기 위해 네트워크를 소프트웨어(SW)로 구현하는 기술에 집중 투자한다. ‘소프트웨어정의네트워크(SDN)’와 ‘네트워크기능가상화(NFV)’다. SDN·NFV는 네트워크 인프라를 개방형과 SW 중심으로 전환했다. 폐쇄적인 하드웨어(HW) 장비 시대보다는 다양한 사업자가 참여할 수 있는 환경을 조성했다. 누구보다 빠르고 안정적으로 SDN·NFV를 구현하는 기술 경쟁이 뜨겁다. 국내 이동통신사뿐 아니라 다국적 네트워크 기업과 국내 중소기업도 합류해 합종연횡하는 형국이다.

◇SK텔레콤, SDN 기술 상용화 속도 매서워 

SK텔레콤은 최근 SDN 서비스를 연이어 상용화하면서 기술시장을 주도하겠다는 의지를 내비쳤다. 지난해 11월 SK텔레콤은 전송망을 SW로 구현하는 기술(T-SDN)을 일부 장비에 적용해 상용화하는데 성공했다. 올해 안으로 기지국·교환기·전송 등 네트워크 3대 영역을 모두 가상화하는게 목표다.

지난달에는 3사 가운데 최초로 SDN 기반 분산 롱텀에벌루션(LTE) 교환기를 개발했다. 교환기를 여러 곳으로 나눠 데이터 용량이 커도 효율적으로 전송할 수 있다. 네트워크 장비 제어와 트래픽 전달 명령을 SW로 구현했다. 당시 SK텔레콤과 함께 개발에 참여했던 박성용 삼성전자 네트워크사업부 개발팀 상무는 “SDN 기술 도입으로 데이터 통신 속도를 높일뿐 아니라 고객 맞춤형 통신 서비스도 제공할 수 있다”고 평가했다.

SK텔레콤은 최종적으로 서버·스토리지·네트워크를 통합한 컴퓨팅 정보기술(IT) 인프라를 구축하는 것이 목표다. 하드웨어를 가상화해 SW적으로 네트워크를 제어하는 게 핵심이다. 서비스에 맞게 네트워크를 구분해 제공할 수 있어야 한다. SK텔레콤 종합기술원 관계자는 “네트워크를 잘라서(슬라이싱) 고객이 원하는 서비스에 맞춰 네트워크를 구현할 수 있어야 5G가 실현될 것”이라고 설명했다. SK텔레콤은 지난해 말 데이터센터 기능을 강화하는 차세대 기술인 ‘소나(SONA)’도 선보였다. 서버와 네트워크 장비를 가상 프로그램으로 만들어 SDN 컨트롤러로 제어하는데 성공했다. 

◇KT, SDN·NFV 포럼 주도 

지난 2014년 SDN·NFV 포럼이 공식 출범했다. 공동 기술 개발과 관련 표준 마련에 협력하기 위해서다. 국가 연구개발(R&D) 사업과 정책 제언에도 힘쓰겠다는 포부를 밝혔다. 포럼은 KT를 의장사로 이동통신사와 네트워크업체, 학계와 연구기관 전문가들이 참여하고 있다. 

포럼을 이끌며 SDN·NFV 협력 사업에 집중할뿐 아니라 네트워크 장비 업체 등 관련 업계와 협업도 활발히 추진 중이다. 2012년부터 SDN·NFV 태스크포스(TF)를 꾸렸던 KT는 2014년부터 다국적기업·국내 중소기업 등을 규모에 관계없이 전략적 제휴를 확대했다. 2014년 2월 KT융합기술원은 NTT도코모와 SDN 연구현황을 공유하고 네트워크 가상화 협력 방안을 논의하며 공동 기술 개발을 추진했다.

같은해 7월 KT는 에릭슨엘지와 NFV 기반 차세대 네트워크 기술 개발에 협력하기로 약속했다. 10월에는 알카텔루슨트와 NFV 기반 인프라 구축을 위한 기술 협력 양해각서(MOU)를 교환했다. 망 효율을 높여 비용을 절감할 수 있는 차세대 네트워크 환경 조성이 핵심이다. 국내 네트워크장비업체인 다산네트웍스와 공동으로 SDN 스위치를 개발하기도 했다. 업계 관계자는 “일찍이 SDN·NFV 기술에 관심을 가졌던 KT는 다양한 업체와 협력하면서 ‘연합군’을 형성하는 전략을 취하고 있다”며 “글로벌 시장에서도 통용될 수 있는 기술 구현에 초점을 맞춘 것”이라고 평가했다. 

◇맹추격하는 LG유플러스 

업계에서는 LG유플러스의 SDN·NFV 시동이 늦게 켜졌다고 평가했다. 지난 2013년부터 관련 기술 타당성 검증에 나섰지만 당시만해도 대형 통신사에 SDN을 도입하기에 성능이 미흡하다는 인식이 앞섰다. 그러나 SDN·NFV이 차세대 네트워크 핵심 기술로 확연히 부각되면서 기술 개발 방향을 명확히 설정했다.

에릭슨LG 등과 함께 SDN 기술 협력이 대표적이다. 기존까지 SDN컨트롤러와 장비 연동에 기술 초점이 맞춰졌다면 LG유플러스와 에릭슨LG는 SDN 플랫폼에 집중했다. 네트워크 운영 관리 전체를 자동화해 5G를 위한 인텔리전스 네트워크를 구현한다는 전략이다. LG유플러스에 주요 기지국 장비를 공급한 화웨이가 SDN·NFV 개발에 공을 들이는 만큼, 새로운 협력 모델을 구상할 수도 있다는 평가도 있다.

LG유플러스는 최근 발표한 ‘5G 백서’에서 사물인터넷(IoT)과 커넥티드카, 클라우드 인프라 구축에 필요한 SDN 기술 방향을 제시하기도 했다. 백서는 “IoT 그룹을 모듈을 통해 하나의 신호로 제어할 수 있다”며 “모듈화를 위한 핵심 기술 후보로 NFV와 SDN을 꼽을 수 있다”고 밝혔다.

소프트웨어정의네트워크(SDN)·네트워크기능가상화(NFV) 

SDN=소프트웨어정의네트워크(Software Defined Networking)의 약자. 기존 네트워크 장비에서 하드웨어(HW)와 소프트웨어(SW)를 기능적으로 분리, 직접 프로그래밍할 수 있는 새로운 네트워크 구조. SW를 통해 네트워크를 관리할 수 있어 호환성이 높고 효율을 극대화할 수 있다. 대규모 네트워크 환경에서 성능과 확장성, 보안 등이 해결 과제로 남아있다. 

NFV=네트워크 가상화(Network Function Virtualization)의 약자. 하드웨어 등 물리적인 네트워크를 가상머신(Virtual Machine·VM)에 탑재해 실행하는 방식. 네트워크 장비를 서버나 스토리지, 스위치를 통해 제어할 수 있고 네트워크 장비 운영 비용을 낮출 수 있다. 서비스 대응이 빨라 시장 수요에 신속히 대처할 수 있다고 평가받는다. 

[표]세계 SDN 시장 규모 

자료 : SDX센트럴 

[표]SDN·NFV 주요 특징 

자료 : ETRI 

권동준기자 djkwon@etnews.com 


출처: http://www.etnews.com/20160121000069

Posted by insightalive
,

가트너가 올해도 어김없이 ‘10대 전략 기술’를 선정해 공개했다. 가트너는 매년 10대 전략 기술을 발표하며 향후 기업에 영향을 미칠 기술을 제시하고 있다. 올해는 사물인터넷과 기계학습 등이 포함됐다. 아래는 과거 5년간 가트너가 꼽은 10대 전략 기술이다. 올해 순위에 없어진 기술도 꽤 있으며, 매년 등장하는 기술도 존재한다.

Gartner_Top10_2016_01

▲자료:가트너 발표

2016년에 선정된 전략 기술은 다음과 같다.

■ 디지털 메시

1. 디바이스 메시(Device Mesh)

가트너는 2016년 핵심 전략기술에 ‘디바이스 메시’라는 다소 생소한 단어를 내세웠다. ‘메시(mesh)’란 그물망, 철망이란 뜻을 가지고 있으며 체의 그물 구멍 크기를 나타내는 단위이기도 하다. 디바이스 메시는 말하자몉 다양한 기기들이 더 촘촘하게 연결된 상태를 뜻한다. 과거에는 스마트폰과 노트북이 연결되는 정도였다면 앞으로 자동차, 카메라, 전자제품 등 수십대의 기기들이 서로 연결될 거라고 전망한 셈이다. 또한 이러한 기기들은 사람, 커뮤니티, SNS, 정부, 기업과 끊임없이 서로 정보를 주고받을 거라고 평가했다. 가트너는 많은 기기가 서로 정보를 주고받으면서 웨어러블 기기 산업, 가상 현실 산업 등이 더욱 발전할 수 있을 것이라고 기대했다.

데이비드 설리 가트너 펠로우 겸 부사장은 “포스트 모바일 세계에서는 전통적인 모바일 기기 사용자보다 디바이스 메시 속에 살고 있는 모바일 사용자에게 관심이 옮겨질 것”이라고 평가했다.

2. 앰비언트 사용자 경험(Ambient User Experience)

사용자 경험(User Experience, UX)은 IT 업계에서 많이 사용되는 단어다. UX는 사용자들이 제품을 사용하면서 느끼는 감정, 태도, 행동 등을 말한다. 앰비언트는 ‘주위의, 잔잔한’이란 뜻을 가진 단어이고, 앰비언트 UX란 UX가 한 가지 제품에 국한되지 않고 넓게 퍼지는 개념을 말한다. 예를 들어 사용자가 다양한 스마트 기기를 이용해도 언제나 같은 UX를 경험하는 것이다. 위치나 시간이 바뀌어도 같은 UX를 경험하는 것을 앰비언트 UX라고 해석할 수 있다.

데이비드 설리 부사장은 “모바일 앱을 잘 설계하는 것은 기업에게 중요하다”라며 “이때 사물인터넷 센서, 기기, 자동차, 사물, 공장 등이 서로 연결될 수 있도록 집중해야 할 것”이라고 설명했다.

3. 3D 프린팅 재료

현재 첨단 니켈 합금, 탄소섬유, 유리, 전도 잉크, 전자기기, 생물학적 소재 등 다양한 물질을 3D 프린팅 재료로 활용할 수 있다. 새로운 소재 덕에 수요층도 넓어지고 있다. 가트너는 “항공, 의료, 자동차, 에너지 산업, 군사업 같은 분야에서 3D 프린팅 수요를 이끌고 있다”라며 “2019년에는 3D프린터로 인쇄할 수 있는 범위가 확대되면서 기업용 3D 프린터 출하량이 연간 64.1% 성장할 것”이라고 설명했다. 또한 “3D 프린팅의 제조 라인과 공급망 과정에 대해 재검토해야 할 것”이라고 덧붙였다.

■ 스마트 기계

4. 만물 정보 (Information of Everything, IoE)

IT 업계에서 많이 사용하던 용어에 ‘사물인터넷'(Internet of thing)이란 단어가 있다. 여기서 사물을 강조해 ‘만물인터넷'(Internet of Everything)이라는 용어도 혼재해 사용하기도 했다. 모든 것이 인터넷에 연결됐다는 의미다. 가트너는 인터넷이 들어간 자리에 ‘정보(Information)’를 넣었다. 모든 사물에 추출할 수 있는 정보가 포함될 것이란 뜻이다. 디지털 메시 환경이 발전할수록 많은 사물과 기기가 연결된다. 기기에서 생산하는 정보도 예전보다 늘어나게 된다. 텍스트, 오디오, 비디오 정보뿐만 아니라 센서나 문맥을 표현하는 정보까지 다양하다. 가트너는 정보가 많아질수록 사물 정보를 분석하고 처리하는 기술들도 함께 성장할 것으로 보았다. 많은 사람들이 정보의 홍수 속에 의미있는 가치를 찾기 위해 시맨틱 분석 도구, 그래프 데이터베이스 기술 등을 활용할 것으로 평가했다.

5. 진보한 기계 학습 (Advanced Machine Learning)

가트너는 기계학습 분야에서 ‘심층 신경망(Deep Neural Net, DNN)’이 핵심 기술로 자리잡을 것이라고 예상했다. DNN은 데이터 크기가 복잡하고 클 때 이용되는 기술이다. 가트너는 “DNN은 하드웨어 또는 소프트웨어 기반 기계가 스스로 환경을 이해하고 학습할 수 있다”라고 설명했다. 예를 들어 방대한 의료 자료를 분석해 이전에는 밝혀지지 않았던 치료 효과성을 기계가 알아내는 식이다.

6. 지능형 기기(Autonomous Agents and Things)

기계학습이 발전할수록 인공지능 로봇, 무인자동차, 음성인식 기술 등도 함께 성장한다. 가트너는 구글의 ‘구글나우’, 마이크로소프트의 ‘코타나’, 애플의 ‘시리’같은 음성인식 서비스가 더욱 똑똑해지고 있으며, 이러한 서비스가 지능형 기기 기술을 이끄는 선구자가 될 것으로 평가했다.

데이비드 설리 부사장은 “IT 리더들은 지능형 기기를 활용해 많은 일을 기기에 맡기고 사람은 인간만 할 수 있는 작업에 집중하는 방법을 찾아야 할 것”이라며 “지능형 기기는 향후 20년동안 확장하고 진화할 것”이라고 설명했다.

■ 새로운 IT 세계

7. 상황에 따라 적응하는 보안 구조(Adaptive Security Architecture)

이제 많은 기업들이 클라우드 서비스를 이용하고 개방형 API를 이용하고 있다. 이러한 인프라 환경에서 몇 가지 규칙에 의존하는 보안시스템은 적합하지  않다. 가트너는 “IT 책임자들은 위협을 감지하고 대응하는 것뿐만 아니라 공격을 방어하거나 예방하는 것도 준비해야 한다”라며 “애플리케이션 자가 보호(self-protection) 기술이나, 사용자와 기업 활동을 분석하는 기술을 활용할 수 있다”라고 설명했다.

8. 진보된 시스템 아키텍처(Advanced System Architecture)

스마트 기기, 사물인터넷 기술이 연결되는 환경에서는 고도의 컴퓨팅 자원이 필요하다. 가트너는 이에 적합한 컴퓨팅 아키텍처를 ‘뉴로모픽(neuromorphic) 아키텍처’라고 제시했다. 인간의 뇌신경 따라 만든 뉴로모픽 아키텍처는 GPU과 FPGAs(Field Programmable Gate Arrays)를 기반으로 개발된다.

데이비드 설리 부사장은 “뉴로모픽 아키텍처는 지능형 기계가 사용하는 심층 학습과 기타 패턴 매칭 알고리즘에 적용하는데 적합하다”라고 설명했다. 또한 “FPGA 기반 아키텍처를 활용하면 알고리즘을 소형 폼팩터에 배치할 수 있고, 기기들의  전력 소모량도 적다”라며 “첨단 기계 학습 기능들을 가정, 자동차, 시계, 초소형 IoT 기술 등로 확산할 수 있을 것”이라고 설명했다.

9. 메시 앱과 서비스 아키텍처(Mesh app and service Architecture)

메시 앱과 서비스 아키텍처는 수많은 앱과 서비스가 서로 느슨하게 연결되는 환경을 한다. 대표적으로 소프트웨어 정의 애플리케이션 서비스, 마이크로서비스 아키텍처, 컨테이너 기술 등이 있다. 서로 분리돼 있던 모바일 기술과 사물인터넷 정보들은 이러한 아키텍처를 토대로 클라우드 환경에서 연결되고  다른 기기들과 통합될 수 있다.

10. 사물인터넷 플랫폼

IoT 플랫폼이란 서로 분리된 센서, 기기들을 관리 및 통합하하고 보안성을 높이는 것을 의미한다. 가트너는 이러한 플랫폼으로 디지털 메시, 앰비언트 사용자 경험과 관련된 기술이 현실화될 것으로 보았다. 데이비드 설리 부사장은 “IoT를 도입할 계획을 가진 기업은 IoT 플랫폼 전략을 개발해야 하지만, 2018년까지 IoT를 표준화하는데 어려움을 겪게 될 것”이라고 평가했다.

Gartner_Top10_2016_02

▲가트너가 제시한 2016년 10대 전략기술 (사진:가트너)


출처: http://www.bloter.net/archives/240776

Posted by insightalive
,

데이터 학습 통해 인간 닮아가는 컴퓨터
구글, 모바일 이어 머신러닝 영향력 강화
에릭 슈밋 "기계가 윤리적 판단도 학습"


 기사의 0번째 이미지
▶ 여기를 누르시면 크게 보실 수 있습니다
A는 안드로이드폰으로 에펠탑 앞에서 사진을 찍었다. 따로 위치 정보를 지정하지 않았지만 얼마 후 구글은 '파리에서 즐거웠던 날들'이란 제목으로 앨범을 만들어준다. A가 파리에 간 것을 구글은 어떻게 알았을까. 구글 머신러닝(기계학습)이 삼각형 모양의 거대 철탑을 프랑스 파리에 있는 에펠탑으로 인식하고 있기 때문이다. 

에릭 슈밋 알파벳(구글 지주회사) 회장(60)은 10일 일본 도쿄에서 열린 '매직 인 더 머신(구글 아시아·태평양 지역 간담회)' 기조연설에서 "머신러닝은 스마트폰, 모바일에 이은 새로운 메가 트렌드"라면서 "앞으로 머신은 과거처럼 차가운 존재가 아니라, 인간만큼 따뜻하고 유연하게 움직일 것"이라고 말했다. 그는 "구글은 이미 100개 이상 조직이 머신러닝을 활용해 생활을 변화시키고 있다"며 "머신러닝은 선택이 아닌 흐름"이라고 예언했다. 2010년 2월 모바일월드콩그레스(MWC) 이후 지난 5년간 '모바일 온리'를 유일한 절대가치로 강조해왔던 슈밋 회장은 지난달 한국 방문에 이어 이날 행사에서 또다시 '머신러닝'을 부각시켰다. 

머신러닝은 컴퓨터에 들어온 정보를 수천 번 처리하는 과정에서 가장 정확한 답을 도출해내는 과정을 말한다. 수만 가지 데이터로 컴퓨터를 학습시키고 인간처럼 판단·행동하게 하는 측면에서 인공지능(AI)과 직결되는 개념이다. 가령 위치 정보가 없는 사진 속 에펠탑도 인식해 검색어에 '파리'를 입력하면 이 사진을 가져다 보여주는 식이다. 스팸 메일을 자동 삭제해주고 간단한 내용의 메일에는 짧은 대답으로 회신하는 것도 가능하다. 구글 무인자동차는 주위에 어린이가 있으면 더욱 조심스럽게 운전하는데, 이는 핼러윈 복장 등을 입은 어린이를 인식하는 머신러닝 기술의 결과물이라고 할 수 있다. 

검색엔진 회사로 출발한 구글이 이를 주도할 수 있었던 건 수억 사용자의 인터넷 활용 정보를 활용하고 있기 때문이다. 이미 이메일, 포토 등 다양한 서비스에 머신러닝을 도입했다. 지난 5월 출시돼 매달 1억명이 사용 중인 구글포토에는 지금까지 50억장 이상의 사진이 올라와 있다. 가히 머신러닝의 보고다. 

구글의 머신러닝 기술에 대해 그레그 코라도 선임연구원은 "컴퓨터가 여러 번 반복학습을 통해 이메일에서 스팸을 걸러내는 방식"이라며 "머신러닝은 마술이 아니라 하나의 도구(tool)"라고 말했다. 

머신러닝은 투입과 산출의 중간 과정을 설명하는 알고리즘이라고 보면 된다. 예를 들어 공부 시간이 길다고 해서 반드시 좋은 성적이 나올 수 없는 변수가 존재하는데, 구글 머신러닝은 이를 찾아내고 학습해 오류가 거의 없는 예측을 만들어내게 된다. 

구글은 특히 인간의 윤리적 판단까지 머신러닝을 통해 익힐 수 있을 것으로 보고 있다. 예컨대 고장나 질주하는 트롤리 앞에 있는 5명을 살리기 위해 선로를 바꿔 1명만 사고를 당하게 하는 게 옳은지 등을 판단하는 '트롤리의 문제'와 같은 상황도 머신러닝으로 해결할 것이란 얘기다. 슈밋 회장은 "아직 기존 제조업체 자율 주행차의 경우 머신러닝을 이용한 알고리즘을 사용하지 않았다"고 전제하면서도 "다양한 환경에서 발생하는 윤리적 판단도 기계가 학습하지 못할 이유는 없다"고 말했다. 

이날 구글은 구글포토 소개 외에도 머신러닝의 기술을 오픈 소스로 공개하고 보다 많은 개발자와 협력해 인간친화적인 기술로 발전시키겠다는 포부를 제시했다. 안드로이드 생태계 조성에 이어 머신러닝 분야의 새로운 영역을 개척해간다는 포석으로 풀이된다. 다양한 개발자들이 구글의 표준 소프트웨어를 기반으로 서비스와 제품을 만들어내면서 구글 영향력이 더욱 커질 것이기 때문이다. 코라도 선임연구원은 "30년 전부터 인공신경망에 대한 연구는 지속돼왔으나 이를 상용화할 디바이스나 데이터 처리 방법이 없었다"며 "지금은 컴퓨터와 스마트폰의 정보처리 속도가 빨라지면서 새롭게 각광받게 됐다"고 배경을 설명했다. 

[도쿄 = 이경진 기자]


출처: http://news.mk.co.kr/newsRead.php?no=1072380&year=2015

Posted by insightalive
,