기계는 어떻게 생각하고 학습하는가
6인의 위대한 AI 석학이 조망하는 인공지능의 현재와 미래
한빛미디어
도서관에서 우연히 고른 책으로, 인공지능에 관해 그동안 대충 들어보기만 헀지
어떻게 머신러닝을 하고, 그 기술을 어떻게 사용할 수 있는 건지 원리에 대해 잘 몰랐는데,
AI의 발전 과정에 대한 이해나 AI에 대한 새로운 관점을 가질 수 있게 되서 읽기 잘했다고 생각한다.
이 책을 통해서 인공지능에 대한 이해 없이 무분별하게 활용되는 것이 옳지 않은 이유
(ex. 윤리적 문제, 블랙박스 모델),
반대로 인공지능을 어떻게 사용해야 하는지(ex. 인간이 빠른 시간에 하기 힘든 결정들)에 대해 생각해볼 수 있었다.
그리고 이 책을 읽을 당시만해도 머신 러닝에 관해서 배우기 전이라
"아니, 머신러닝으로 학습하고 결과를 내보내는데, 그 이유를 설명할 수 없다고?" 하면서 나름 충격을 받았었는데
최근 수업을 들으면서 그러한 현상을 '블랙박스'라고 부르고,
'화이트 박스' 모델로 바꾸기 위한 여러 시도와 연구가 이뤄지고 있다는 점을 인지하게 되었다.
인사이트를 주었던 책 내용 정리
생략(...) 및 <요약>있음
p.20
튜링테스트란?
엘런 튜링 1950년 계산하는 기계와 지능이라는 소논문에서 언젠가는 컴퓨터가 인간처럼 생각할 수 있게 될 것이라고 주장했다. 튜링은 만약 이떤 기계의 반응을 인간에게 기대되는 반응과 구별할 수 없다면, 그 기계가 지능을 가졌다고 판단할 수 있다고 했다.
튜링은 어떤 기계가 지능을 가졌다고 할 수 있는지 결정하는 방법을 ‘이미테이션 게임imitation game’이라고 명했다.
<판단자가 대화를 통해 기계를 인간과 구별할 수 없다면 그 기계는 지능을 가졌다고 인정된다>
<휴 뢰브너가 튜링테스트를 통과하는 자에게 상금을 걸었으나, 현재까지 튜링테스트를 통과해 뢰브너상을 받은 봇 프로그램은 없다.>
p.48-49
바텀업 속성 기법
데이터가 이론보다 중요하다
<소량의 통계저 학습 알고리즘과 대량의 데이터로 무장한 인공지능 기계의 새로운 세대 등장>
연구자들은 인공지능이 인간의 지능을 더 잘 이해할 수 있게 해줄 것이라는 가정을 폐기했다.
인간이 과제를 수행하는 방식에서 알고리즘을 추출하려한다면 시간낭비일뿐이다.
기계의 지능은 알고리즘보다는 데이터에 있다.
이런 인공지능 소프트웨어에 수백만가지의 사례를 입력하면 그 결과는 마치 지능을 가진 것처럼 느껴지는 고수준의 적응행동처럼 보이는 경우가 있다. 그럼에도 불구하고, 놀랍게도 이런 인공지능에는 자신이 하는 일을 왜 그렇게 하는지 설명할 수 있는 내부 모델이 없다
이러한 실증적 원리는 ‘데이터의 터무니없는 효과’라고 불리기도 한다
p.60
인공지능은 완전한 모델을 세울 수 없는 복잡한 인간의 행동을 모방할 수 있고, 그리고 인간이 할 만한 방식과 매우 다른 방식으로 그 일을 한다.
2장
이미지 분류 →딥러닝 방식 활용
학습레이어
딥러닝은 신경망(neutral network)라는 기술에 기초한다.
신경망은 시냅스로 연결된 수 많은 뉴런을 모방해 만든 소프트웨어 회로이다.
… 신경망은 프로그래머 대신 사진에서 먼저 물체의 테두리와 같은 특성을 찾고, 그 다음으로 물체나 동작까지도 인식하는 일을 해준다.
시스템이 동작에 대해 긍정적 또는 부정적 보상을 받는 방식으로 훈련되는 경우 이를 강화학습이라고 부른다. 프로그래머는 데이터 내에서 관련 있는 특성을 골라내는 방식을 최적화 하기 위해 노드와 레어어의 숫자만 조정하면 된다. 하지만 신경망이 하는 일이 구체적으로 어떻게 이루어지는 지를 정확히 설명하기가 불가능한 경우가 많기 때문에 이런 조정작업은 사실 일단은 시도하고 개선하는 식이다.
p.66
인공지능 연구 초기에는 ‘설명가능성explanability’, 즉 시스템이 어떻게 그 결정을 내리게 됐는지 보여줄 수 있어야 한다는 생각이 중요하게 여겨졌다. ... 인간은 시스템이 수행한 논리적 절차를 추적해 그 결정의 이유를 알아낼 수 있다. 그러나 오늘날 데이터 주도 인공지능이 하는 추론은 엄청나게 많은 데이터의 복잡한 통계적 분석에 해당한다. 마이크로 소프트의 크리스 비숍에 따르면, <인공지능이 내린 결정에 대해 왜 그렇게 결정했는지 알 수는 없다. 인공지능의 결정은 인간이 해석할 수 있는 규칙을 통해 결론에 도달하는 것이 아니기 때문이다.>
…
p.67
아마존이 사용자에게 비슷한 사람들이 산 책에 대해 얘기해줄 때, ‘고객님과 비슷한 사람들’이나 ‘이 책과 비슷한 책’이 정말 무엇을 뜻하는가?
진정한 위험은 인간이 질문하기를 포기할 때에 온다.
오늘날 인공지능 기계는 담보대출 신청, 의료 진단, 그리고 심지어 피의자가 유죄인지 여부까지에 대해서까지 설명할 수 없는 결정을 내리고 있기 때문에 위험은 더 커지고 있다. <EX 인공 지능의 인종 차별 문제, 자율 주행 자동차의 사고>
p.68
인공지능은 온라인으로 시간 관리를 도와주고 어떤 상품을 사라고 추천해주는 단계에서, 인간이 스스로 깨닫기도 전에 인간의 행동을 예측할 수 있을 법한 수준의 시스템까지 발전했다. 사실상 멈출 수 없는 흐름이다.
이 상황에서 열쇠는 인간이 인공지능의 결정을 이해할 수 없다는 사실을 받아들이고, 그 결정이 어떤 성격의 결정인지를 제대로 인식하는 것이다. 결국 인공지능의 결정은 추천이자 수확적 확률에 불과하다.
그렇다면 인공지능이 활용된 좋은 사례는?
p.65