본문 바로가기

리디 접속이 원활하지 않습니다.
강제 새로 고침(Ctrl + F5)이나 브라우저 캐시 삭제를 진행해주세요.
계속해서 문제가 발생한다면 리디 접속 테스트를 통해 원인을 파악하고 대응 방법을 안내드리겠습니다.
테스트 페이지로 이동하기

알파고를 분석하며 배우는 인공지능 상세페이지

컴퓨터/IT 개발/프로그래밍

알파고를 분석하며 배우는 인공지능

딥 러닝, 몬테카를로 트리 탐색, 듀얼 네트워크, 강화 학습 구조 이해하기
소장종이책 정가26,000
전자책 정가30%18,200
판매가18,200
알파고를 분석하며 배우는 인공지능 표지 이미지

알파고를 분석하며 배우는 인공지능작품 소개

<알파고를 분석하며 배우는 인공지능> 알파고를 통해 인간의 지혜를 넘어선 한 수의 비밀을 탐구한다

바둑계의 양대 산맥이던 이세돌과 커제를 이기고 전설이 된 바둑 인공지능 알파고. 이 책은 알파고를 탄생시키고 성장시킨 딥 러닝, 강화 학습, 몬테카를로 트리 탐색에 대해 자세히 다룬다. 또한, 알파고의 차기 버전인 알파고 제로에 대해서도 알아본다. 인간에 의해 개발되고 학습되었지만, 인간의 지능을 능가해 버린 인공지능의 구조와 원리를 탐색함으로써 무궁무진한 인공지능의 발전 방향을 모색한다.


출판사 서평

알파고를 통해 인간의 지혜를 넘어선 한 수의 비밀을 탐구한다!
인공지능은 어떻게 인간의 두뇌를 뛰어넘도록 설계되고 진화했을까?
이세돌을 비롯한 많은 프로 바둑기사를 제압한 알파고를 통해 인공지능의 구조와 원리를 파헤친다!

2016년 3월, 이세돌 9단과 알파고의 세기의 대전이 열렸다. 결과는 4승 1패로 알파고의 승리. 2017년 5월에는 커제 9단과 알파고의 대국이 열렸다. 결과는 알파고의 3연승. 이후 알파고의 진화는 계속되었고, 2017년 10월에는 알파고 제로에 관한 논문이 발표되었다. 그리고, 알파고 제로는 기존 알파고에 100연승하였다. 이렇듯 인공지능 기술은 일취월장하고 있으며, 특히 머신 러닝, 딥 러닝, 강화 학습 분야에 주력하고 있다.

저자 오츠키 토모시는 [네이처]에 게재된 알파고 및 알파고 제로에 관한 난해한 학술 논문을 읽고 해석해서 알파고에 이용되는 딥 러닝, 강화 학습, 몬테카를로 트리 탐색과 알파고 제로에 이용되는 듀얼 네트워크의 구조에 대해 알기 쉽게 설명했다. 이 책을 통해 최신 인공지능 기술이 알파고 및 알파고 제로에 어떻게 이용되는지 파악하고, 이를 다양한 연구 개발에 활용하기 위한 아이디어를 얻을 수 있을 것이다.


저자 프로필

오츠키 토모시

  • 학력 도쿄대학교 계수공학 학사

2020.12.16. 업데이트 작가 프로필 수정 요청

2001년에 도쿄대학 계수공학과를 졸업하였으며, 2003년에 도쿄대학원의 신영역 창성과학연구과의 석사 과정을 수료하였다. 이후 머신러닝 및 최적화 등의 연구와 개발에 참여하였다. 2001년부터 게임 AI 프로그래머로서 바둑 및 장기 프로그램 개발에 참여하였는데, 그가 개발한 장기 프로그램 ‘오쇼기’는 2009년 세계 컴퓨터 장기 선수권 대회에서 2위를 차지했다. 한편, 그는 정보 이공학 박사 학위 소유자이기도 하다.


저자 소개

저 : 오츠키 토모시 (大槻知史)
2001년에 도쿄대학 계수공학과를 졸업하였으며, 2003년에 도쿄대학원의 신영역 창성과학연구과의 석사 과정을 수료하였다. 이후 머신러닝 및 최적화 등의 연구와 개발에 참여하였다. 2001년부터 게임 AI 프로그래머로서 바둑 및 장기 프로그램 개발에 참여하였는데, 그가 개발한 장기 프로그램 ‘오쇼기’는 2009년 세계 컴퓨터 장기 선수권 대회에서 2위를 차지했다. 한편, 그는 정보 이공학 박사 학위 소유자이기도 하다.

역 : 정인식
숭실대학교에서 전자계산학을 전공하였다. 사회 초년생 시절 자바에 심취해 현대정보기술에서 웹 애플리케이션을 개발하였고, 그 후 이동통신 단말기 분야로 옮겨 휴대전화 단말기의 부가서비스 개발 업무를 진행하였다. 그리고 일본 키스코 모바일사업부의 팀장을 거쳐, 일본 교세라의 북미향 휴대전화기 개발에 참여하였다. 지금은 일본의 주요 이동통신사에서 업무 프로세스 개선을 위한 IT 컨설팅 및 데이터 분석 관련 도구를 개발하고 있다. 또한, 『알파고를 분석하며 배우는 인공지능』, 『빅데이터를 지탱하는 기술』, 『유니티 5로 만드는 3D/2D 스마트폰 게임 개발』, 『자바 마스터 북』, 『자바스크립트 마스터 북』 등을 비롯해 10여 종의 책을 번역하였다.

목차

CHAPTER 1 알파고의 등장
1.1 게임 AI의 역사와 발전
1.1.1 앨런 튜링과 AI
1.2 천재 데미스 하사비스의 등장
1.2.1 신동 데미스 하사비스
1.3 알파고의 활약
1.3.1 알파고의 활약
1.4 바둑 AI의 기초
1.4.1 바둑의 규칙
1.4.2 바둑 AI를 구현한다는 것은 무엇인가?
1.4.3 ‘다음의 한 수’ 태스크
1.4.4 ‘다음의 한 수’ 태스크의 어려운 점
1.4.5 머신 러닝을 이용한 ‘다음의 한 수’ 태스크
1.4.6 알파고의 롤 아웃 정책 학습
1.5 정리

CHAPTER 2 딥 러닝 - 바둑 AI는 순간적으로 수를 떠올린다
이 장에서 설명할 내용
2.1 딥 러닝이란?
2.1.1 AI는 사람의 직관을 실현할 수 있을까?
2.2 필기체 숫자 인식의 예
2.2.1 필기체 숫자 인식이란?
2.2.2 필기체 숫자 인식의 데이터 세트 ‘MNIST’
2.2.3 신경망을 사용한 필기체 숫자 인식
2.2.4 필기체 숫자 인식에 대한 컨볼루션 신경망
2.2.5 다단계의 신경망에서도 유효한 활성화 함수
2.2.6 오류 역전파 방법에 기초한 CNN의 필터 가중치 학습
2.2.7 화상 처리 CNN의 발전
2.3 알파고의 컨볼루션 신경망
2.3.1 알파고의 컨볼루션 신경망
2.3.2 ‘다음의 한 수’ 태스크와 화상 인식의 유사성
2.3.3 바둑의 수를 선택하는 CNN - SL 정책 네트워크
2.3.4 SL 정책 네트워크의 입력 48채널의 특징
2.3.5 SL 정책 네트워크의 컨볼루션 계산 예
2.3.6 SL 정책 네트워크의 계산량
2.3.7 SL 정책 네트워크의 학습용 데이터 획득
2.3.8 SL 정책 네트워크의 학습 기법
2.3.9 SL 정책 네트워크의 학습 결과
2.3.10 국면의 유리 불리를 예측하는 CNN(밸류 네트워크)
2.4 Chainer로 CNN 학습시키기
2.4.1 MNIST의 신경망 학습 부분 작성하기
2.4.2 SL 정책 네트워크의 학습 부분 작성하기
2.5 정리

CHAPTER 3 강화 학습 - 바둑 AI는 경험을 배운다
이 장에서 설명할 내용
3.1 강화 학습이란?
3.1.1 어떻게 경험에서 배울 것인가?
3.2 강화 학습의 역사
3.2.1 강화 학습
3.3 멀티 암드 밴딧 문제
3.3.1 강화 학습의 사례
3.3.2 UCB1 알고리즘
3.4 미로를 풀기 위한 강화 학습
3.4.1 4 × 4칸으로 이루어진 미로
3.4.2 가치 기반의 방식: Q 학습을 통해 미로 해결
3.4.3 정책 기반 방식: 정책 경사법을 통해 미로 해결
3.5 비디오 게임 조작 스킬을 얻기 위한 강화 학습
3.5.1 DQN
3.6 알파고의 강화 학습
3.6.1 알파고의 강화 학습
3.6.2 정책 경사법에 근거하는 강화 학습
3.6.3 RL 정책 네트워크의 성능
3.6.4 밸류 네트워크 학습용의 데이터 작성 기법
3.7 정리와 과제

CHAPTER 4 탐색 - 바둑 AI는 어떻게 예측할까?
이 장에서 설명할 내용
4.1 2인 제로섬 유한 확정 완전 정보 게임
4.1.1 어떻게 수를 예측할까?
4.2 게임에서의 탐색
4.2.1 SL 정책 네트워크
4.3 기존의 게임 트리 탐색(민맥스 트리 탐색)
4.3.1 ‘완전 탐색’의 개념
4.3.2 탐색 포인트 - 가지치기와 평가 함수
4.4 바둑에서의 몬테카를로 트리 탐색
4.4.1 몬테카를로 방법
4.4.2 바둑에서의 몬테카를로 방법: 원시 몬테카를로
4.4.3 몬테카를로 트리 탐색
4.4.4 몬테카를로 트리 탐색의 결과와 최종적인 수 탐색
4.4.5 몬테카를로 트리 탐색의 개선
4.5 몬테카를로 트리 탐색의 성공 요인과 과제
4.5.1 CrazyStone과 Gnu Go
4.5.2 단 1줄로 다시 태어난 CrazyStone
4.6 정리
4.6.1 탐색

CHAPTER 5 알파고의 완성
5.1 알파고의 설계도
5.1.1 알파고의 재료
5.1.2 전체를 제어하는 AI
5.2 비동기 정책 가치 갱신 몬테카를로 트리 탐색
5.2.1 세 가지 정책의 특징
5.2.2 비동기 정책 가치 갱신 몬테카를로 트리 탐색
5.2.3 APV-MCTS의 선택 처리
5.2.4 APV-MCTS의 전개 처리
5.2.5 APV-MCTS의 평가 처리
5.2.6 APV-MCTS의 갱신 처리
5.3 대량 CPU·GPU의 이용
5.3.1 대량의 CPU와 GPU에 의한 병렬 탐색
5.3.2 로크리스 해시
5.3.3 가상 손실
5.4 알파고의 강력함
5.4.1 몬테카를로 트리 탐색, 밸류 네트워크, 정책 네트워크의 조합 효과

CHAPTER 6 알파고에서 알파고 제로로
6.1 시작에 앞서
6.2 알파고 제로에서의 딥 러닝
6.2.1 듀얼 네트워크의 구조
6.2.2 듀얼 네트워크의 학습
6.2.3 알파고 제로의 딥 러닝 정리
6.3 알파고 제로에서의 몬테카를로 트리 탐색
6.3.1 알파고 제로의 몬테카를로 트리 탐색 개요
6.3.2 몬테카를로 트리 탐색의 플로 차트
6.3.3 알파고 제로의 몬테카를로 트리 탐색 정리
6.4 알파고 제로에서의 강화 학습
6.4.1 알파고 제로의 강화 학습 기법
6.4.2 강화 학습의 계산 시간
6.4.3 알파고 제로의 강화 학습은 무엇을 하고 있나?
6.4.4 강화 학습의 효과
6.4.5 알파고 제로의 강화 학습 정리와 그 후의 진전
6.5 알파고 제로의 강력함
6.6 알파고 제로는 지식 없이 만들 수 있을까?
6.7 알파고나 알파고 제로에 약점은 있을까?
6.7.1 알파고와 알파고 제로의 약점 가능성
6.8 알파고 제로의 향후 미래
6.8.1 바둑계의 미래는 어떻게 될까?
6.8.2 AI의 과제

Appendix 1 수식에 관하여
A1.1 콘볼루션 신경망의 학습 법칙 도출
A1.1.1 SL 정책 네트워크의 학습 법칙 도출
A1.1.2 밸류 네트워크의 학습 법칙 도출
A1.1.3 듀얼 네트워크의 손실 함수에 관한 보충
A1.2 강화 학습의 학습 법칙 도출
A1.2.1 파알고의 RL 정책 네트워크 강화 학습 방법의 학습 법칙 도출
A1.2.2 미로를 예로 든 정책 경사법의 학습 법칙 도출

Appendix 2 바둑 프로그램용 UI 소프트웨어 GoGui 및 GoGui용 프로그램 DeltaGo 이용 방법
A2.1 DeltaGo란?
A2.1.1 DeltaGo의 특징
A2.2 GoGui의 설치 및 GoGui용 프로그램 DeltaGo 이용 방법
A2.2.1 DeltaGo 다운로드와 압축 풀기

찾아보기


리뷰

구매자 별점

0.0

점수비율
  • 5
  • 4
  • 3
  • 2
  • 1

0명이 평가함

리뷰 작성 영역

이 책을 평가해주세요!

내가 남긴 별점 0.0

별로예요

그저 그래요

보통이에요

좋아요

최고예요

별점 취소

구매자 표시 기준은 무엇인가요?

'구매자' 표시는 리디에서 유료도서 결제 후 다운로드 하시거나 리디셀렉트 도서를 다운로드하신 경우에만 표시됩니다.

무료 도서 (프로모션 등으로 무료로 전환된 도서 포함)
'구매자'로 표시되지 않습니다.
시리즈 도서 내 무료 도서
'구매자’로 표시되지 않습니다. 하지만 같은 시리즈의 유료 도서를 결제한 뒤 리뷰를 수정하거나 재등록하면 '구매자'로 표시됩니다.
영구 삭제
도서를 영구 삭제해도 ‘구매자’ 표시는 남아있습니다.
결제 취소
‘구매자’ 표시가 자동으로 사라집니다.

이 책과 함께 구매한 책


이 책과 함께 둘러본 책



본문 끝 최상단으로 돌아가기

spinner
모바일 버전