오랜만에 TED 강연 하나 소개할까 한다. 오늘은 최근의 인공지능 기술 발전에 있어 정말 커다란 역할을 한 ImageNet 을 만든 스탠포드 대학의 페이페이 리(Fei-Fei Li)의 강연이다. 모두들 기술 그 자체를 개발하거나 어딘 가에 적용한 사람들만 조명하지만, 이런 기술의 발전에는 뒤에서 묵묵히 지루한 작업을 해낸 이런 숨은 영웅들이 큰 역할을 했다. 


페이페이 리가 원했던 것은 컴퓨터 비전의 혁신이었다. 모라벡(Moravec)의 패러독스로도 유명한 개와 고양이를 구별하는 것조차 제대로 하지 못하는 컴퓨터에게 그림을 보고 그것을 제대로 인지하고 설명하도록 하는 것은 최근까지 풀어내지 못한 큰 도전이었다. 컴퓨터 비전 기술이 발전하지 못한다면 무인자동차가 카메라가 있어도 도로 위에 있는 장애물을 구별하지 못할 것이며, 드론이 하늘을 날며 촬영한 열대우림에 무슨 변화가 있는지 알아낼 수 없고, 감시카메라가 있어도 수영장에서 물에 빠진 아이를 보고서도 우리에게 경고를 해주지 못할 것이다. 


카메라는 사진을 찍을 수 있고 센서에 들어오는 빛을 숫자의 2차원 배열인 픽셀로 변환할 수 있지만, 이는 그저 죽은 숫자이다. 카메라는 사진을 '찍을' 수는 있지만 '보지'는 못하는 것이다.  '본다'는 말에는 '이해한다'는 뜻이 있는데, 이것을 못하는 것이다. 사실 자연은 5억 4천만 년에 걸쳐서 시각을 발전시켜 왔다. 그 대부분의 시간은 우리 뇌의 시각처리능력을 발달시키는데 들어갔지, 눈을 만드는데 소요된 것이 아니다. '본다'는 것은 눈에서 시작되지만 이 현상이 가장 크게 발현되는 것은 우리의 뇌이다.


페이페이 리는 스탠포드 대학의 컴퓨터 비전 연구실을 이끌고 있는데, 컴퓨터로 하여금 어떻게 '보게' 만들 것인지 연구해왔다. 카메라가 인식한 영상에서 물체와 사람을 식별하고, 3차원 도형의 구조를 추측하고, 관계, 감정, 행동과 의도를 이해하게 하는 것이다. 우리는 영상을 보면 이런 것을 순식간에 할 수 있지만, 컴퓨터에게 이런 작업을 시키려면 가장 먼저 사물과 시각 세계의 구성요소를 보고 분류하는 것에서 시작해야 한다. 그런데, 컴퓨터에게 이 작업이 쉽지가 않다.


예를 들어 컴퓨터에게 '고양이' 사진을 보여줬다고 하자. 고양이는 모양과 색깔의 집합인데, 처음에는 고양이가 둥근 얼굴을 가지고 통통한 몸과 두 개의 뾰족한 귀, 그리고 긴 꼬리가 있다고 가르칠 수 있을 것이다. 이런 것을 객체 모델이라고 부른다. 그런데, 몸을 말고 있는 고양이라면 어떨까? 또 고양이가 숨어 있다면? 집안의 애완동물처럼 단순한 사물조차 객체 모델에는 무한한 변형이 존재할 수 있다.


그렇다면, 아이들은 어떻게 보는 법을 배우게 되는 것일까? 아이에게 보는 법을 가르칠 수는 없을 것이다. 아이들은 현실세계의 경험과 사례로 보는 법을 배운다. 만약 아이의 눈을 생물학적 카메라 한쌍이라고 하면 눈이 움직이는 평균 시간인 200밀리초마다 한 장씩 사진을 찍는 셈이다. 아이들은 세 살까지 수억 장의 현실세계 사진을 보게 된다. 방대한 양의 학습사례가 축적되는 것이다. 그렇다면, 이런 방식으로 컴퓨터에게 보는 법을 가르칠 수 있지 않을까? 이런 생각으로 2007년부터 페이페이 리는 프린스턴 대학의 카이리 교수와 이미지넷(ImageNet) 프로젝트를 시작했다. 


이들은 인터넷과 집단지성의 힘을 적극적으로 활용하였다. 거의 10억 장에 이르는 이미지를 다운로드했고, 아마존의 MTurk(미캐니컬 터크)와 같은 크라우드 소싱 기술을 사용해 이미지에 레이블(label)을 붙였다. 5만명 가까운 작업자가 세계 167개국에서 약 10억 장의 후보 이미지정리 분류 작업을 도왔다. 지금이야 이렇게 답이 있는 방대한 빅데이터가 인공지능 기술의 발전에 얼마나 큰 영향을 미치는지 다들 알고 있지만, 페이페이 리 등이 작업을 하던 2007년의 분위기는 그렇지 않았다고 한다. 동료 교수들은 종신교수가 되려면 논문을 쓸 수 있는 다른 프로젝트를 하라고 조언했고, 연구자금도 모자랐다. 심지어 페이페이 리가 대학을 다닐 때 학비를 마련하기 위해 했던 세탁소 일을 다시 해야 되겠다는 생각도 했다. 그렇지만, 이들은 포기하지 않고 작업을 계속해서 2009년에 객체와 사물을 2만 2천 개의 범주로 분류한 1500만 장의 미이지 데이터베이스를 공개하기에 이른다. 예를 들어, 고양이의 경우 6만 2천 장의 이미지가 다양한 모양과 자세, 집고양이부터 들고양이까지 모든 종류를 망라한 사진들을 이미지넷에서 만나볼 수 있다. 그리고, 이 방대한 이미지 데이터베이스를 모든 사람들이 활용할 수 있도록 무료로 공개하였다. 


그 결과 이미지넷의 풍부한 정보는 딥러닝 기술과 만나면서 오늘날의 딥러닝 전성시대를 열게 만드는 가장 중요한 영양분을 공급한 기초가 되었다. 이미지넷의 방대한 데이터와 현대의 CPU와 GPU의 발전에 힘입어 딥러닝 기술이 탑재된 컴퓨터는 우리에게 사진에 고양이가 있는지, 어디에 있는지 말해줄 수 있게 되었다. 


여전히 컴퓨터는 실수를 저지른다. 그렇지만, 방대한 학습 데이터는 컴퓨터의 실수를 줄이고, 미래에는 더욱 다양한 일을 할 수 있게 만들 것이다. 의사들은 쉬지 않는 컴퓨터의 눈을 이용해 환자를 진단할 수 있을 것이고, 자동차는 더 똑똑하고 안전하게 도로를 주행할 것이다. 또한, 재난 지역에서 갇히고 부상당한 사람을 구할 수 있을 것이고, 새로운 종, 더 나은 물질을 발견하고 보지 못한 개척지를 탐험하게 될 것이다. 이런 과정을 통해 우리는 기계가 '보는' 것을 가능하게 만들고 있는 것이다.  


그녀의 마지막 말이 인상적이다. 


우리는 기계에게 보는 것을 가르쳤습니다. 다음엔 기계가 우리를 도와 더 잘 보게 할 겁니다. 처음으로, 인간의 눈이 아닌 것이 세계를 생각하고 탐험하게 되었습니다. 우리는 인공지능 때문에 기계를 이용할 뿐만 아니라 상상치 못했던 방식으로 기계와 협력하게 될 것입니다


멋진 그녀의 TED 강연을 한번 보도록 하자.




저작자 표시 비영리
신고
크리에이티브 커먼즈 라이선스
Creative Commons License

WRITTEN BY
하이컨셉
미래는 하이컨셉, 하이터치의 세계라고 합니다. 너무 메마르고 딱딱한 이야기보다는 글로벌 시대에 어울리는 세계 각국의 이야기, 그리고 의학과 과학을 포함한 미래에 대한 이야기의 세계로 여러분을 초대합니다.

받은 트랙백이 없고 ,


from Wikipedia.org



1970년 일본의 로봇공학자인 모리 마사히로(Mori Masahiro)는 로봇이 사람에 가까와지면 가까와질수록 사람들이 불안하고 놀라는 반응을 가진다는 가설을 제시한다. 그는 이를 "불쾌한 골짜기(uncanny valley)"라고 표현을 했는데, 이 문제를 해결하기 위해서 모리 박사는 처음부터 너무 인간하고 똑같게 만들기 보다 인간과는 다른 어떤 것을 덧붙여서 거부감을 줄이는 방안을 제시한다. 예를 들어, 안경과 같은 것을 먼저 모델링을 하고 눈을 디자인하거나 인간과 비슷한 피부를 입히기 보다 되려 나무 등의 질감을 가진 재료를 이용한 로봇 손 등을 만드는 식이다. 


그렇다면, 이 '불쾌한(uncanny)'이라는 단어의 상대어 또는 반대말은 무엇일까? 아마도 '편안함(comfortable)' 내지는 '익숙함/친근함(familiarity)' 등의 단어가 떠오를 것이다. 그런데, 여기서 하나 우리가 감안해야 할 부분이 있다. 불쾌함이라는 느낌이 불편하고 낯선 것에서 기인한다면 어쩌면 사람들이 적응을 하면서 변할 수도 있다는 점이다. 예를 들어, 비디오 게임과 같은 가상의 세계의 경우 초기에는 너무나 현실과 다른 수준의 원시적인 그래픽을 가지고 있었지만, 시간이 지날수록 정교해지더니 이제는 실제와 구별이 안될 정도로 뛰어난 게임들이 나오기 시작했다. 초기에 다소 어색하게 느껴지는 3D 그래픽도 이제는 정교하게 동작하면서 정말 현실과 비슷해 질수록 게이머들은 더욱 열광하지 현실과 너무 비슷하게 느껴진다고 불쾌하게 느끼는 경우는 거의 없는 듯하다. 


인공지능에도 이와 같은 "불쾌한 골짜기"가 있을까? 최근 개봉한 영화 <그녀(Her)>에서 보듯이 정말 사람과 비슷하고 상호작용이 가능한 인공지능이 나타난다면, 사람들이 그렇게까지 불쾌하게 생각할 것 같지는 않다. 되려 주인공은 심지어 사랑에 빠지지 않았는가? 그렇지만, 어설프게 비슷해지면 불쾌함을 느낄지도 모르겠다. 애플의 시리(Siri)는 어느 정도의 유머도 있고, 말대답도 잘하는 정말 사람과도 비슷한 그런 수준의 인공지능을 구현하고 있다. 물론 아직도 진짜 인간과 비교하기에는 멀었지만 말이다. 인공지능에 "불쾌한 골짜기"를 생각한다면, 아마도 어느 순간 이 인공지능이 확실히 인공지능이라서 내가 잘 활용해야 되겠다는 느낌을 주는 것이 아니라, 약간은 섬찟한 느낌이 들 정도로 수준이 높아졌을 때 발생할 것이다. 음성으로 소통하는 인공지능이라면 음색과 말하는 속도, 높낮이 등도 중요할 것이고, 대화의 질이나 감성 등도 중요한 요인이 된다. 답이 없는 질문에 대한 대처를 한다거나, 부끄러움을 느낀다거나 ... 이런 종류의 인공지능은 현재의 인공지능과는 또 다른 요소들이다. 


IBM의 Watson이 켄 제닝스와 같은 세계 최고의 퀴즈왕과의 경쟁에서 이길 정도로 똑똑함을 과시하고 있지만, 문제를 못 맞추고 부끄러워 하거나, 유머를 자연스럽게 구사하는 인간적인 부분들은 아직 없는데, 이는 물론 현재의 인공지능 연구가 논리적인 판단과 답을 내기 위한 것에 집중하고 있기 때문이라고 생각할 수 있다. 다른 로봇연구에서와 마찬가지로 인간을 이해하고 이를 흉내내는 쪽의 연구가 많이 진행된다면 어쩌면 이 역시도 극복이 가능한 문제가 될 수 있을 것이다. 


이처럼 다소 인간적인 속성을 구현한 뒤의 인공지능이 '불쾌한 골짜기' 넘기 위한 또 하나의 속성은 무엇일까? 사회적인 상호작용이 그 중의 하나가 될 것이다. 구글 나우나 Siri 등이 어느 순간 자율적으로 우리들의 대화에 끼어들거나, 먼저 말을 거는 상황을 상상해볼 수 있을까? 현재의 인공지능은 마치 주인과 노예처럼 사용자인 인간이 어떤 명령을 내리거나 질문을 던지기 전에는 먼저 움직이는 상황은 거의 상정하지 않고 있다. 하지만, 상호작용을 이해하고, 같이 이야기를 나누는 사람을 알아가면서 그 사람의 성향에 맞추어 먼저 이야기를 하거나 분위기를 전환하고 인간관계를 학습할 수 있다면 이 역시도 인간에 훨씬 유사한 인공지능이라는 느낌을 주기 시작할 것이다.


여기에 도덕적인 관점과 윤리에 대한 생각도 해야 할 것이다. 자율성을 갖추고, 상호작용을 하며, 진화발전하는 인공지능이라면 무엇이 옳고, 그름을 판단할 수 있어야 단순히 똑똑한 것을 넘어선 인공지능이라고 부를 수 있다. 최근 예일대학의 웬델 월러치(Wendell Wallach)와 피츠버그 대학의 콜린 알렌(Colin Allen)이 공동집필한 <왜 로봇의 도덕인가? (원제: Moral Machines)> 라는 책이 국내에서도 번역되어 나오기도 했는데, 이렇게 로봇이나 인공지능에게 윤리를 심어주려는 연구도 미국 국방부를 중심으로 한창 진행이 되고 있다.


이제 인공지능과 로봇과 관련한 연구도 '불쾌한 골짜기'를 넘는 데에 필요한 다양한 방향으로 진행되어야 할 것이다. 예를 들어, 적절한 시기를 봐서 남들에게 나쁜 뉴스를 전하는 방법이라든지, 문맥이나 분위기에 맞춰서 억양이나 말의 속도, 크기 등을 조절하는 기술, 사람들의 감성을 읽고 그에 공감하는 것과 같은 미세한 부분들이 앞으로 인공지능이 진짜 사람들에게 사랑받고 이를 받아들이게 만드는데 중요한 역할을 할 수도 있다. 그리고, 역설적이게도 이런 기술의 발전이 있기 위해서는 인간과 우리 사회에 대한 연구가 같이 병행되어야 한다. 사람들이 무엇을 좋아하고, 어떻게 행복감을 느끼며, 사회성은 어떻게 발달하고, 커뮤니케이션 하는지, 무엇이 옳은 것인지 등에 대해서 인문학과 사회학, 심리학, 그리고 윤리학 등에서 적절한 모델과 학습방법을 제시해 줄 수 없다면, 결국 로봇이나 인공지능이 그런 매력적인 사람(?)을 흉내내거나 배울 수 있도록 하지 못할 것이기 때문이다. 영화 <그녀(Her)>에 나온 기술은 그래서 생각보다 무척이나 어려운 기술이다. 단순히 올바른 답을 내도록 하는 문제풀이형 인공지능과는 또 다른 수준의 도전적인 과제다. 그렇지만, 이런 도전적인 과제를 풀다가 보면 인간에 접근한 로봇이나 인공지능을 만들어낼 수도 있겠지만, 그 이전에 우리 인간과 사회가 얻어낼 수 있는 것이 더욱 많지 않을까? 기술과 인문학의 융합이 필요한 또 하나의 이유다.


저작자 표시 비영리
신고
크리에이티브 커먼즈 라이선스
Creative Commons License

WRITTEN BY
하이컨셉
미래는 하이컨셉, 하이터치의 세계라고 합니다. 너무 메마르고 딱딱한 이야기보다는 글로벌 시대에 어울리는 세계 각국의 이야기, 그리고 의학과 과학을 포함한 미래에 대한 이야기의 세계로 여러분을 초대합니다.

받은 트랙백이 없고 ,


from BlabDroid.com



로봇과 함께 살아가는 사회가 이제 먼 일이 아니라고 한다. 미국에서는 로봇과 함께 사는 사회에서의 법률을 준비하는 법학자들의 컨퍼런스도 열리고 있고, 구글에서는 로봇회사들을 인수한 이후에 회사 내에 로봇과 관련한 윤리위원회를 설치하기도 하였다. 


그렇다면, 로봇이 인간들의 사회를 돌아다니면서, 인간들을 관찰하고 다니면서 인간들에게 말을 건다면 느낌이 어떨까? 2013년 로봇공학자이자 예술가인 알렉스 레벤(Alex Reben)이라는 MIT 학생이 자신의 석사 논문으로 조그만 로봇을 만들어서 사람들의 다큐멘터리를 찍고 다녔다. BlabDroids라고 명명된 이 귀여운 로봇 20여 대 정도가 뉴욕에서 열린 트리베카 필름 페스티벌(Tribeca Film Festival) 기간 동안 많은 사람들을 인터뷰하고 다녔는데, 바퀴를 굴리면서 사람들에게 다가가서 질문들을 던졌다. 각각의 드로이드 로봇들에게는 디지털 카메라와 스피커가 있어서 미리 프로그램된 질문을 만나는 사람마다 던지고, 버튼을 누르면 새로운 질문을 하도록 만들었다. 이렇게 취합된 영상은 영상제작자인 브렌트 호프(Brent Hoff)가 편집하여 공개하였다. 


사람들이 귀엽게 생각하고 쉽게 마음을 털어놓게 하기 위해서 7살 소년의 목소리로 질문을 녹음하였는데, 질문은 다음과 같은 것들이었다.


"저에게 낯선 사람들에게는 전에 절대 이야기한 적이 없었던 이야기를 해주세요"

"다른 사람에게 당신이 했던 최악의 행동은 어떤 것이었나요?"

"누구를 세상에서 제일 사랑하세요?"


이런 질문들은 사실 낯선 사람들에게 받으면 선뜻 대답하기가 어려운 것들이다. 그런데, 사람들은 어떻게 반응했을까? 놀랍게도 블로그 포스트 하단에 임베딩한 영상에서도 볼 수 있듯이 많은 사람들이 스스럼없이 이런 민감한 질문에 답을 하였다. 이처럼 사람들이 인간과 비슷한 형태와 인공지능을 가진 컴퓨터나 로봇에 쉽게 감정이입을 하는 경향이 있다는 것은 MIT의 컴퓨터 과학자 조세프 와이젠바움(Joseph Weizenbaum)이 주장한 바 있는데, 이를 "엘리자 효과(ELIZA Effect)"라고 한다. 와이젠바움이 엘리자 효과를 처음 이야기 했을 때에는 미래 세계에 인공지능을 다루기 어려워지는 상황을 우려했던 것인데, 알렉스 레벤과 브렌트 호프는 그 효과를 다른 방식으로 이용한 것이다. 


이 로봇들이 찍은 영상들은 다큐멘터리 필름으로 편집이 되어 암스테르담에서 열린 국제다큐멘터리 필름페스티벌(International Documentary Film Festival Amsterdam)에 출품되었다. 


이 영상을 보면서 로봇과 인간, 그리고 우리 사회에 대해 많은 생각을 다시 하게 되었다. 어쩌면 우리는 정말로 외로워하고 있는 것이 아닐까? 사람과 사람사이의 관계에서 이렇게 정이 넘치고, 마음을 나눌 수 있는 것이 부족해서 어쩌면 자신에 대해서 특별한 감정을 가지지 않고, 공평무사하게 다정한 이야기를 건네주는 로봇에게 이렇게나 친절하게 자신의 이야기를 전달한 것이 아닐까? 그리고, 로봇과 인공지능이라는 것이 우리가 생각하는 것처럼 딱딱하고 주어진 일을 명확하게 수행하게 만드는 것 이상으로 인간적이고 정서적인 부분, 그리고 사회적인 부분에도 큰 영향을 줄 수 있다는 가능성을 본 듯하다. 기술이라는 것을 논리적이고, 산업적인 관점에서만 바라보아서는 안될 것 같다. 여러 모로 기술에 대한 새로운 시각들이 많이 필요한 시점이다.


현재 BlabDroid는 일종의 서로게이트 로봇 아바타로 원격지에서 사람의 목소리를 담아내서, 아이디어를 이야기하고, 질문을 던지며, 다양한 반응 들을 담아낼 수 있는 도구로서 상업화를 시도하고 있다. 사람들을 즐겁게 하고, 경우에 따라서는 교육도 하며, 퀴즈를 풀거나, 게임을 할 수도 있을 것이며, 깜짝 인터뷰를 하기에도 좋을 듯하다. 이 로봇 자체가 앞으로 많이 보급이 될 지는 알 수 없지만, 로봇과 인공지능의 사회적 역할에 대해서 다시 한번 생각하게 만든 로봇이었다는 것은 부정할 수 없을 것 같다.






참고자료:

These Adorable Robots Are Making a Documentary About Humans. Really.


저작자 표시 비영리
신고
크리에이티브 커먼즈 라이선스
Creative Commons License

WRITTEN BY
하이컨셉
미래는 하이컨셉, 하이터치의 세계라고 합니다. 너무 메마르고 딱딱한 이야기보다는 글로벌 시대에 어울리는 세계 각국의 이야기, 그리고 의학과 과학을 포함한 미래에 대한 이야기의 세계로 여러분을 초대합니다.

받은 트랙백이 없고 ,
Nannan's M8s
Nannan's M8s by Ѕolo 저작자 표시비영리동일조건 변경허락


중국, 아니 세계에서 가장 커다란 스마트폰 등의 전자제품 공장을 운영하는 대만의 폭스콘이라는 기업이 있다. 이 회사에서 2011년 1월, 백만 대가 넘는 로봇들을 이용해서 앞으로 3년 내에 거의 대부분의 조립라인을 자동화할 것이라는 발표를 하였다. 제레미 리프킨의 "노동의 종말"에서 언급했던 로봇이 인간의 일자리를 대체하는 상황이 점차 현실화되고 있는 것이다. 로봇은 인간이 하기 싫어하는 반복적이고 기계적인 작업을 지치지도 않으며, 보다 정교하게 해낸다. 이와 관련해서 이 블로그에서도 한 차례 노동문제를 언급한 바 있으니 해당 포스트도 참고하기 바란다. 


연관글:
2011/01/04 - 직업의 양극화, 그리고 로봇이 빼앗는 일자리


로봇 뿐일까? 인공지능(AI, Artificial Intelligence)의 부상도 눈여겨 보아야 한다. 인공지능과 로봇이 함께 한다면 과거보다 창조적이면서도 덜 비싸고, 보다 개별적인 제조가 가능해질 것이다. AI는 50년 가까이 중요한 기술로 인식되었지만, 초창기의 막대한 관심에 비해 별다른 진보가 일어나지 않아 많은 사람들의 관심에서 그도안 멀어졌던 것이 사실이다. 특히 80년대 후반에는 "인공지능은 죽었다"라는 이야기가 나올 정도로 큰 침체기를 겪기도 하였다.

그러나, 1997년 IBM의 딥블루(Deep Blue)라는 컴퓨터가 세계체스챔피언인 개리 캐스파로프를 꺾으면서 다시 주목을 받기 시작했고, 2011년에는 IBM의 왓슨(Watson)이 세계 최고의 퀴즈쇼인 제퍼디(Jeopardy)에서 그동안 전설적인 퀴즈왕으로 꼽혔던 두 명의 퀴즈왕들을 상대로 대결에서 승리하면서 이제 인공지능이 현실세계를 크게 바꾸게 될 것임을 강력하게 시사하였다.

이와 연관되어 구글은 혼자서 운전을 하는 자동차를 개발하는데 성공하여 현재 캘리포니아의 고속도로에서 질주를 하고 있고, 급기야 애플은 아이폰 4S에 Siri라는 훌륭한 음성인식 기반의 인공지능 비서를 탑재해서 내놓으면서 이제는 인공지능이 단지 꿈속의 이야기가 아니라 우리의 현실을 바꾸는 단계로 진입하고 있다.

로봇과 인공지능이 합쳐지고, 여기에 마지막 남은 제조혁신 퍼즐의 조각은 바로 "디지털 프로세스"이다. 아마도 이 마지막 조각이 맞춰지는 순간 중국이 가지고 있는 제조부문의 강력한 경쟁력은 순식간에 날아갈수도 있다. 그 뿐인가? 어쩌면 집에서 원하는 것을 만들게 되는 "가내수공업"과 "지역기반 제조"가 이런 조합의 완성과 함께 급부상할 가능성이 높다. 이미 세계 1위의 CAD(Computer-Aided-Design)회사인 오토데스크는 이런 새로운 디지털 제조 프로세스를 완성하기 위해 기업의 역량을 집중하고 있다. IDC(Imagine, Design, Create)로 명명된 각각의 단계의 가장 중요한 기술과 소프트웨어, 서비스 등을 개발하고 제공함으로써 디지털 제조시장을 크게 확대한다는 전략이다.

 이런 기술들의 발전이 가속화된다면, 이전에 언급한 바 있는 "생산자 사회" 또는 "창조경제"로의 전환이 불가피하게 될 것이다. 대량생산은 개인화된 생산으로 바뀌며, 사람들은 다양한 제품의 아이디어를 생각한 뒤에 이를 지원하는 프로세스를 통해 디자인하고, 테스트하며, 직접 제조에 참여하기 시작할 것이다.


연관글:
2012/01/02 - 생산자 사회로의 변화가 미래를 이끈다


로봇은 매우 비싸고, 느리며, 프로그래밍하기 어렵고, 위험한 것으로 간주되었다. 그러나, 우리가 지금 실제로 만나기 시작하는 로봇의 세계는 훨씬 생활중심적이고, 개인적이며, 다양한 형태로 스마트 디바이스와의 연계를 통해 등장하고 있다. 아직 비용과 개방화된 표준화 등에 있어서 미흡한 부분이 많지만, 이미 변화의 방향성은 눈에 보이기 시작하였다. 제조산업의 혁신과 창조경제의 확산은 앞으로 10년 이내의 가장 중요한 화두로 이미 떠오르고 있다. CES 2012에서 오픈플랫폼 형태의 iOS/안드로이드를 지원하는 가정용 로봇 Ava를 선보인 iRobot은 이미 룸바(Roomba)라는 청소로봇을 전 세계에 6백만 대 이상을 팔았다. Ava는 범용로봇을 지향하고 있는데, 이들과 유사한 개방형 플랫폼을 채택한 다양한 목적의 로봇들이 저렴하게 보급되고, iOS와 안드로이드를 지원하는 디바이스와 연결이 자유로와지며, 오토데스크 등이 추진하는 디지털 프로세스가 자리를 잡는데 그렇게 오랜 시간이 걸리지는 않을 것이다.

저작자 표시 비영리
신고
크리에이티브 커먼즈 라이선스
Creative Commons License

WRITTEN BY
하이컨셉
미래는 하이컨셉, 하이터치의 세계라고 합니다. 너무 메마르고 딱딱한 이야기보다는 글로벌 시대에 어울리는 세계 각국의 이야기, 그리고 의학과 과학을 포함한 미래에 대한 이야기의 세계로 여러분을 초대합니다.

받은 트랙백이 없고 ,