Problems in a row 일상소소


요즘 들어 노트북이 점점 맛이 가려고 한다.

장비는 꼭 돈이 없을 때 고장 나고

질병은 가난한 자에게 찾아온다.

억울하면 좋은 직업 좋은 학교 좋은 부모 있어야 된다.

I hate this fucking wasteland

유일하게 신뢰할 수 있던 구글마저도

요즘 부쩍 상태가 안 좋다.

하마트면 중요한 일감 자료를 날릴 뻔 했다.

 

내가 경험한 인공지능, 1편. 인공지능

약간 긴 글이 될 것 같다.


학계에서 인공지능을 '인공지능'이라고 부르는 데 큰 이견은 없다.

그런데 내가 경험한 바, 인공지능은 우리가 생각하는 터미네이터와 같은 똑똑한 인공지능은 절대 아니다.

인공지능은 인간의 어떤 문제를 더 빠르고, 더 정확하게 해결하기 위해 고안된 특수한 계산기이다.

쉽게 말하면, 그냥 프로그램이다.

아직까지는 그렇다.


컴퓨터의 장점은 계산 속도와 저장 용량, 그리고 쉽게 정보를 복사하는 것이 가능한 점이다.

이 3가지를 이용해 인간이 못 푸는 수학 문제를 그냥 풀게 하는 것이 인공지능이다.

소위 인공지능이라고 불리는 이 프로그램은

메모리 혹은 디스크에 사람이 충분히 이해할 수 있는 단순한 정보부터 시작해서

사람이 이해할 수 없는 내용, 형태를 띤 정보까지 저장할 수 있다.

인공지능은 이러한 장점을 문제를 풀기 위해 활용하고자 만들어졌다.

가끔 어떤 문제를 해결하기 위해 때로는 매우 복잡한 방법이 필요하다.

정답은 늘 간단하게 구할 수 있는 것이 아니다.


인공지능은 이 정답을 구하는 데 사용된다.

당연히, 사람도 충분히 이 정답을 구할 수 있다.

엄청난 노가다를 하면 가능하다.

이 노가다는 경우에 따라 평생을 다 바쳐야 할 수도 있다.

이 노가다를 줄이는게 모든 프로그램의 목적이다. 굳이 인공지능 프로그램만의 목적이 아니다.


인공지능을 만드는 방법은 이론적으로도, 실제로도 어마어마하게 다양하다.

하지만 요즘들어 소위 유행빨을 제대로 받은 인공신경망을 언급하지 않을 수 없다.


인공신경망은 1950년대 있었던 다층 퍼셉트론 구조라는 연구에서 출발한다.

즉, 구글의 알파고는 이미 1950년대 이론의 기초에서 출발한다.

퍼셉트론 연구에서 출발해 본격적으로 인공신경망(Artificial Neural Network)가 학계에서

유행한 것은 1970년대이다.

이 때 미국에서는 인공신경망이 인류의 모든 문제를 해결할 구원자라고 믿는 사람도 있었다.

현직 교수와 현직 연구자 중에서도 있었다.

물론 그 환상은 곧 깨졌다. 

매우 쉽고 단순한(수학 전공자 기준에서는 매우 쉽다고 감히 단언한다. 물론 난 비 전공자이지만) 수학적

원리를 사용해 어마어마한 정확도로 문제를 해결할 수 있었으나 

그건, 학교에서만 그랬다.

인공신경망을 들고 학교 밖으로 뛰쳐나가자 오만 가지 문제가 기업 현장에서 연구자들을 기다리고 있었다.

결국 학계에서도 인공신경망은 사장되기 시작했다.

가장 큰 맹점은 당대의 컴퓨터 하드웨어로 처리하기 불가능할 정도로 많은 계산량이었다.


인공지능 프로그램은 어떤 문제를 해결하기 위해 그 문제에 대한 과거 데이터가 필요하다.

그 과거 데이터를 학습해 이 문제의 특성을 추출한다.

추출된 특성을 바탕으로 인공지능 프로그램은 문제를 해결하는 규칙을 수식으로 만든다.

이제 이 문제에 대한 현재 데이터를 인공지능이 만든 수식에 대입하면,

인공지능이 수식을 계산해 답을 내려준다. 

문제는 학습해야 하는 과거 데이터가 BIG 할 때다.

이것이 인공지능이 항상 '빅데이터'라는 단어와 함께 붙어다니는 이유다.


학습해야 할 데이터가 크면 클 수록 학습하는 데 걸리는 시간이 증가한다.

인공지능은 데이터를 전부 수식 계산을 통해 학습하기 때문이다.

큰 데이터는 더 많은 계산이 필요하다.

또한 더 정확한 인공지능을 만들기 위해서 더 심도있는 학습이 필요하다.

기계에게 심도있는 학습이란?

더 많은 메모리 공간, 더 많은 계산을 의미한다.

결국, 엄청난 양의 과거 데이터를 엄청나게 정밀하게 학습하려면

기계가 문제를 푸는 것은 고사하고 문제의 과거 데이터를 학습하는 데 모든 시간을 다 소모하게 된다.

그럴 만 하다. 당시 컴퓨터는 우리가 듣도보도 못한 컴퓨터이다. 386컴퓨터가 아마 최신형일 거다.

실제 사례로 어떤 연구에서 프로그램이 데이터를 학습하는 데 1년 반이 걸렸다.

전기세는 어떻게 할 것인가?


이런 이유로 인공지능은 반짝 유행하다 사라지는 운명에 처할 뻔 했으나 

인공지능을 다시 양지로 불러낸 하드웨어가 존재했으니 그것이 바로

게이머에게 없어서는 안 될 GPU, 컴퓨터의 그래픽카드이다.

컴퓨터의 그래픽카드는 높은 수준의 그래픽을 처리하기 위해 

CPU, 즉 컴퓨터의 중앙처리장치와 같은 계산기를 사용한다.

이 계산기는 CPU보다 훨씬 계산 속도가 느리다.

하지만, 느린 계산 속도를 쪽수로 상쇄한다.

즉, 그래픽 카드에는 계산기 숫자가 엄청 많다.

CPU의 멀티코어는 보통 2개에서 많게는 10코어까지 있다. 개인용 컴퓨터에서는 그렇다.

하지만 그래픽 카드의 코어 숫자는 보통 최소 200개에서 500개가 넘는 경우도 있다.

그래픽카드는 어떤 문제를 계산하기 위해 계산량을 수백개로 쪼개서 병렬로 계산한 다음,

마지막에 계산결과를 하나로 합쳐서 최종결과를 내놓는다.

바로 이 과정을 인공신경망의 계산과정에 도입한 것이 바로 2000년대의 인공신경망,

더 정확히 말하면 Deep Neural Network, 깊은 신경망, 심층신경망,

바로 구글 알파고가 사용하는 '딥러닝' 방식의 신경망이다.

이로써 모든 인공신경망 기반 인공지능에는 최소 1개에서 여러 개의 GPU가 사용되기 시작했다.

게다가 2000년대 컴퓨터 하드웨어의 발전으로

빨라진 CPU속도 및 급격하게 증가한 D램 용량과 속도, SSD의 출현 등이

인공신경망에 그대로 응용되었다.

이로인해 1970년대 인공신경망을 사장시켰던 주 문제점인

지나치게 많은 계산량, 지나치게 많은 계산 시간, 부족한 메모리 용량 등이 한꺼번에 해결되었다.

그리고 이론 상 가능했던 '엄청나게 큰 데이터를 엄청나게 자세하게 학습'이 가능해졌다.

그 결과는 기존 인공신경망을 사용한 결과 뿐만 아니라 인공신경망 외 다른 기법을 사용한 인공지능 프로그램의

문제해결능력을 월등히 뛰어넘는 어마어마한 정확도를 가진(심지어 이미지 인식과 분류의 경우 사람보다 더 정확한)

인공지능 프로그램이었다.

엄청난 정확도로 비교적 짧은 시간 안에 문제를 해결 할 수 있는 프로그램.

바로 이 점 때문에, 딥러닝은 다른 모든 인공지능 기법을 다 밀어내고

심층인공신경망 = 인공지능 

이라고 사람들이 착각할 정도의 위세를 굳히게 되었다.

이 현상은 학계 뿐만 아니라 기업에서도 마찬가지이다.


한번 하드웨어 수준에서 Break Through가 열리자,

급속도로 인공신경망에 대한 후속 연구가 진행되었고 

옛날 논문과 통계물리학과 천문학 등 

생소한 분야까지 이 잡듯이 뒤져 오만가지 응용 기법이 탄생했다.

기상천외한 방법이 동원되어 만들어진 인공신경망 응용 알고리즘을

소개하기엔 내 지식도 짧고 내 손가락도 아프고 이 블로그도 너무 좁다.


어쨌든, 지금 이 글을 쓰고 있는 2017년 9월 14일 현재

아직도 인공지능은 그냥 정밀한 계산 프로그램이다.

그리고 만들어 보면 알겠지만 그리 재미있지 않다.

잘 그만 둔 것 같다.

난 문돌이니까 문돌이 답게 살아야겠다.

뭐 그래도 좋은 경험이었다.

다음 편부터는 좀 더 체계적으로 써야겠다.

대학원에서 경험한 인공지능,

집에서 프로젝트 하면서 경험한 인공지능 등.

요즘 번역 수업을 들으면서 아름다운 한글 문장을 파괴했던 습관을 버리려고 하는데,

긴 글 쓰다 보니 귀찮아서 그냥 막 쓰고 있다.

이러면 안되는데...





글의 공기에 대하여 번역고민




조사를 붙여 쓰는가 축약해 쓰는가

어휘 배열 순서

의도적으로 사용한 문법적 장치

의도적으로 사용한 어휘

의도적으로 사용한 존칭

의도적으로 사용한 인칭

의도한 문장 부호

또 무엇이 있을까?

작가는 글이라는 우주에서 별 놀이를 다 하겠군..

언제나 번역자의 고민은 깊어질 수 밖에 없을 것 같다.

피곤해서 올려보는 운동 루틴 취미운동


운동가기 전에 생각나서 올려봅니다.

월수금:

인터벌 러닝 35~40분 (소모 칼로리: 평균 250~300 kcal)
풀업 첫 세트만 실패지점까지 첫 세트 현재 4개, 총 12개 3세트
푸쉬업 첫 세트만 실패지점까지, 완전정석으로 첫 세트 현재 25개, 총 60개(컨디션 최하) ~ 100개(컨디션 최상)
딥스 첫 세트만 실패지점까지, 첫 세트 현재 13개, 총 3세트 중 나머지 2세트는 8개씩
싯업 2분안에 60개
바벨 로우 - 50kg 5 x 5 프로그램
예이츠 로우 - 20~30kg 5 x 5 프로그램





화목:
인터벌 러닝 35~40분 (소모 칼로리: 평균 250~300 kcal)
무중량 허리 운동 15개씩 4세트
양 사이드 복근 및 코어운동(어퍼컷, 훅 훈련) 10개씩 4세트 이상
전거근 훈련(스트레이트 훈련) 양손 각각 15개 이상씩 3세트 이상
힘 남으면 싯업 2분 60개 또는 플랭크 2분








holy...moly...



서비스업에 임하는 자의 자세... 일상소소


일전에 어떤 사이트에 가서 퍼온 글이다.

나는 이 블로그에서 소개한 책을 읽진 않았지만

책의 글귀가 마음에 큰 울림이 되었고,

그 이후로 컴퓨터 바탕화면 스티커 메모 상에 항상 

이 글을 띄워 놓고 컴퓨터를 사용한다.






센노 리큐의 다도 일곱 철칙

차는 마시는 사람의 취향에 맞게 끓여라. (상대방의 경험을 풍부하게 한다)
숯은 물이 끓도록 넣어라. (정확하게 확실히 준비한다)
꽃은 들판을 상기시키도록 꽂아라. (본질을 정확하게 표현한다)
계절감 있게 연출하되 손님이 편안할 수 있도록 대접한다. (편하도록 연출한다)
시간에 여유를 가져라. (마음에 여유를 가진다)
비가 오지 않아도 우산을 준비하라. (상대방의 불편함을 줄인다)
손님에게 마음을 써라. (상대에게 좋은 경험을 제공하도록 한다)

대접을 잘하려면?

상대의 입장에 서서 상대방의 감각을 존중하고, 상대방의 경험을 풍부하게 할 수 있도록 응한다.
마음에 여유를 가지고, 초조해하는 모습을 보이지 않도록 한다.
상대의 불쾌함과 피해를 최대한 줄이고, 일생에 한 번의 만남을 즐길 수 있도록 배려한다.
그럼으로써 상대가 더욱 좋은 체험을 할 수 있도록 돕는다.
마련을 잘하려면?

정확하고 확실하게 준비를 한다.
본질을 정확하고 확고하게 표현한다.
편안한 연출로 상대에게 쾌적한 기분을 즐기도록 한다.
그를 통해 상대가 더욱 좋은 체험을 할 수 있도록 돕는다.

상대의 입장에 서서 상대의 감각을 존중하고, 상대의 경험을 풍부하게 하는 것을 돕는다.
정확하고 확실하게, 대접하기 위한 준비를 한다.
있는 그대로만 대강 묘사하는 것이 아니라, 일의 본질을 정확하게 표현한다.
편안한 연출을 넣어서 상대가 쾌적한 기분을 맛보게 한다.
마음에 여유를 가지고 초조해 보이지 않도록 한다.
상대가 불쾌해하거나 피해를 받는 일이 없게 잘 준비한다.
그렇게 함으로써 상대가 더욱 좋은 경험을 할 수 있도록 한다.

출처: http://ppss.kr/archives/86998






1 2 3