본문 바로가기

리디북스 접속이 원활하지 않습니다.
강제 새로 고침(Ctrl + F5)이나 브라우저 캐시 삭제를 진행해주세요.
계속해서 문제가 발생한다면 리디북스 접속 테스트를 통해 원인을 파악하고 대응 방법을 안내드리겠습니다.
테스트 페이지로 이동하기


신경망과 심층학습 상세페이지

컴퓨터/IT IT 비즈니스

신경망과 심층학습

뉴럴 네트워크와 딥러닝 교과서

구매종이책 정가39,000
전자책 정가27,300(30%)
판매가27,300
신경망과 심층학습

책 소개

<신경망과 심층학습> 신경망의 기초부터 고급 주제까지
체계적으로 정리한 새로운 인공지능 교과서

본서는 신경망(뉴럴 네트워크)과 심층 학습(Deep Learning)에 관한 교과서이다. 강의용 교재뿐만 아니라 독학용으로 사용할 수 있도록 각 장 끝에는 배운 내용을 확인할 수 있는 연습문제를 수록하고 있으며, 신경망 기초부터 고급 신경망까지 깊이 있는 내용으로 구성되어 있어서 체계적인 인공지능 기술을 배우고자 하는 대학원생과 연구자, 실무자들에게 접합한 책이다.


출판사 서평

신경망의 기초부터 고급 주제까지
체계적으로 정리한 새로운 인공지능 교과서!

이 책은 현세대의 심층 학습 모형들을 주로 다루되, 전통적인 기계 학습 모형들도 언급한다. 이 책의 주요 내용은 다음과 같다.

■ 신경망의 기초: 전통적인 기계 학습 모형 중에는 신경망의 특수 사례로 이해할 수 있는 것들이 많이 있다. 제1장과 제2장은 전통적인 기계 학습과 신경망의 관계에 초점을 둔다. 이 두 장은 지지 벡터 기계, 선형회귀와 로지스틱 회귀, 특잇값 분해, 행렬 인수분해, 추천 시스템이 신경망의 특수 사례들에 해당함을 보여 준다. 그와 함께 word2vec 같은 최근의 특징 공학 방법들도 소개한다.

■ 기본적인 신경망 구조들과 학습 방법: 제3장과 제4장에서는 신경망의 훈련과 정칙화를 상세하게 논의한다. 제5장과 제6장은 방사상 기저 함수(RBF) 신경망과 제한 볼츠만 기계(RBM)를 소개한다.

■ 신경망의 고급 주제: 제7장과 제8장은 순환 신경망과 합성곱 신경망을 논의한다. 제9장과 제10장에서는 심층 강화 학습, 신경 튜링 기계, 생성 대립 신경망(GAN) 같은 여러 고급 주제를 논의한다.

이 책의 대상 독자
이 책의 주된 대상은 대학원생과 연구자, 실무자이다. 강의와 독학에 도움이 되도록 각 장 끝에 연습문제들을 수록했다. 그리고 신경망과 심층 학습이 실제로 어떻게 쓰이는지 독자가 가늠할 수 있도록 응용 사례를 중심으로 논의를 진행했다.



저자 소개

저 : 차루 C. 아가르왈 (Charu C. Aggarwal)
아가르왈은 미국 뉴욕 요크타운 하이츠 소재 IBM T. J. 왓슨 연구센터의 저명 연구원(Distinguished Research Staff Member, DRSM)이다. 그는 1993년에 인도 칸푸르의 인도 공과대학교에서 컴퓨터 과학을 학사로 졸업하고, 1996년 매사추세츠 공과대학(MIT)에서 박사 학위를 받았다. 데이터 마이닝 분야에서 주로 일했으며, 주요 콘퍼런스와 학술지에 350편이 넘는 논문을 발표했고, 80건이 넘는 특허를 가지고 있다. 또한, 데이터 마이닝과 추천 시스템, 이상치 분석에 관한 교과서들을 비롯해 18권의 책을 저술 또는 편집했다. 보유한 특허들의 상업적 가치 덕분에 IBM에서 세 번이나 Master Inventor로 선정되었다. 그는 데이터 스트림에서 생물 테러 위협을 검출하는 문제에 관한 연구로 2003년 IBM Corporate Award를 받았으며, 개인정보 기술에 대한 과학적 기여로 2008년 IBM Outstanding Innovation Award를 받았다. 또한, 자료 스트림/고차원 자료에 관한 연구로 2009년과 2015년에 IBM Outstanding Technical Achievement Award를 받았다. 2014년에는 응축(condensation) 기반 개인정보 보존 데이터 마이닝에 관한 연구로 EDBT 2014 Test of Time Award를 받았다. 그는 또한 2015년 IEEE ICDM Research Contributions Award 수상자인데, 이 상은 데이터 마이닝 분야에 기여한 연구자들에 주는 가장 권위 있는 두 상중 하나이다.

역 : 류광
20년 이상의 번역 경력을 가진 전문 번역가다. 인공지능의 교과서라 불리는 『인공지능: 현대적 접근방식(제3판)』(총 2권)과 커누스 교수의 『컴퓨터 프로그래밍의 예술』 시리즈를 포함하여 60여 종의 다양한 IT 전문서를 번역했다.

목차

1장 신경망 입문
1.1 소개 1
1.1.1 인간 대 컴퓨터: 인공지능의 한계 확장 4
1.2 신경망의 기본 구조 6
1.2.1 단일 계산층: 퍼셉트론 7
1.2.2 다층 신경망 25
1.2.3 계산 그래프로서의 다층망 28
1.3 역전파를 이용한 신경망 훈련 30
1.4 신경망 훈련의 실질적인 문제점들 35
1.4.1 과대적합 문제점 35
1.4.2 기울기 소실 및 폭발 문제 41
1.4.3 수렴의 어려움 41
1.4.4 국소 가짜 최적해 42
1.4.5 계산의 어려움 43
1.5 함수 합성이 강력한 이유 44
1.5.1 비선형 활성화 함수의 중요성 47
1.5.2 깊이를 이용한 매개변수 요구수준 감소 49
1.5.3 통상적이지 않은 신경망 구조들 51
1.6 흔히 쓰이는 신경망 구조들 54
1.6.1 얕은 모형으로 기본적인 기계 학습 흉내 내기 54
1.6.2 방사상 기저 함수(RBF) 신경망 54
1.6.3 제한 볼츠만 기계 55
1.6.4 순환 신경망 56
1.6.5 합성곱 신경망 59
1.6.6 위계적 특징 공학과 미리 훈련된 모형 61
1.7 고급 주제 64
1.7.1 강화 학습 64
1.7.2 자료 저장과 계산의 분리 65
1.7.3 생성 대립 신경망(GAN) 66
1.8 주요 벤치마크 두 가지 67
1.8.1 필기 숫자들을 담은 MNIST 데이터베이스 67
1.8.2 ImageNet 데이터베이스 69
1.9 요약 70
1.10 문헌 정보 71
1.10.1 동영상 강의 73
1.10.2 소프트웨어 정보 74
연습문제 75

2장 얕은 신경망을 이용한 기계 학습
2.1 소개 79
2.2 이진 분류 모형을 위한 신경망 구조 82
2.2.1 퍼셉트론 다시 보기 83
2.2.2 최소제곱 회귀 85
2.2.3 로지스틱 회귀 91
2.2.4 지지 벡터 기계 94
2.3 다중 분류 모형을 위한 신경망 구조들 97
2.3.1 다부류 퍼셉트론 97
2.3.2 웨스턴-왓킨스 SVM 99
2.3.3 다항 로지스틱 회귀(소프트맥스 분류기) 101
2.3.4 다중 분류를 위한 위계적 소프트맥스 103
2.4 해석성과 특징 선택을 위한 돌출 요인 역전파 104
2.5 자동부호기를 이용한 행렬 인수분해 105
2.5.1 자동부호기의 기본 원리 106
2.5.2 비선형 활성화 함수 113
2.5.3 심층 자동부호기 116
2.5.4 이상치 검출에 응용 119
2.5.5 은닉층이 입력층보다 넓은 경우 120
2.5.6 기타 응용 122
2.5.7 추천 시스템: 행 색인과 행 가치 예측 124
2.5.8 논의 128
2.6 word2vec: 단순 신경망 구조의 한 응용 129
2.6.1 연속 단어 모음을 이용한 신경망 단어 내장 130
2.6.2 스킵그램 모형을 이용한 신경망 내장 134
2.6.3 word2vec(SGNS)은 로그 행렬 인수분해이다 142
2.6.4 보통의 스킵그램은 다항 행렬 인수분해이다 145
2.7 그래프 내장을 위한 간단한 신경망 구조 146
2.7.1 임의의 간선 횟수 처리 148
2.7.2 다항 모형 149
2.7.3 DeepWalk 및 node2vec의 관계 149
2.8 요약 150
2.9 문헌 정보 151
2.9.1 소프트웨어 정보 153
연습문제 154

3장 심층 신경망의 훈련
3.1 소개 157
3.2 아주 상세한 역전파 알고리즘 160
3.2.1 역전파와 계산 그래프 추상 160
3.2.2 해결책은 동적 계획법 166
3.2.3 활성화 후 변수를 이용한 역전파 167
3.2.4 활성화 전 값을 이용한 역전파 171
3.2.5 여러 활성화 함수의 갱신 공식 174
3.2.6 벡터 중심적 역전파의 분리 관점 176
3.2.7 다중 출력 노드 및 은닉 노드의 손실함수 179
3.2.8 미니배치 확률적 경사 하강법 180
3.2.9 역전파에서 가중치 공유를 처리하는 요령 183
3.2.10 기울기 계산의 정확성 확인 184
3.3 설정과 초기화 문제 186
3.3.1 초매개변수 조정 186
3.3.2 특징 전처리 188
3.3.3 초기화 191
3.4 기울기 소실 및 폭발 문제 193
3.4.1 기하학으로 살펴본 기울기 비의 효과 194
3.4.2 활성화 함수의 선택을 이용한 부분적인 해법 196
3.4.3 뉴런의 죽음과 ‘뇌손상’ 198
3.5 경사 하강 전략들 199
3.5.1 학습 속도 감쇄 200
3.5.2 운동량 기반 학습 201
3.5.3 매개변수 고유 학습 속도 204
3.5.4 절벽과 고차 불안정성 210
3.5.5 기울기 절단 211
3.5.6 2차 미분 212
3.5.7 폴리액 평균 224
3.5.8 극소점과 가짜 최소점 225
3.6 배치 정규화 226
3.7 가속과 압축을 위한 실질적인 요령들 232
3.7.1 GPU 가속 232
3.7.2 병렬 및 분산 구현 235
3.7.3 모형 압축을 위한 알고리즘 요령 237
3.8 요약 242
3.9 문헌 정보 243
3.9.1 소프트웨어 정보 245
연습문제 246

4장 일반화 능력을 위한 심층 학습 모형의 훈련
4.1 소개 249
4.2 편향 대 분산 절충 관계 256
4.2.1 공식적인 관점 258
4.3 모형의 조정 및 평가와 관련된 일반화 문제점 262
4.3.1 예비와 교차 검증을 이용한 모형 평가 264
4.3.2 자료 집합의 규모에 따른 훈련상의 문제점 266
4.3.3 자료 추가 수집 필요성 판정 266
4.4 벌점 기반 정칙화 267
4.4.1 잡음 주입과의 관계 269
4.4.2 정칙화 271
4.4.3 정칙화 대 정칙화 272
4.4.4 은닉 단위에 대한 벌점: 희소 표현 학습 273
4.5 앙상블 방법 274
4.5.1 배깅과 부표집 275
4.5.2 매개변수 기반 모형 선택과 평균화 277
4.5.3 무작위 연결 생략 278
4.5.4 드롭아웃 278
4.5.5 자료 섭동 앙상블 283
4.6 조기 종료 284
4.6.1 분산의 관점에서 본 조기 종료 285
4.7 비지도 사전훈련 286
4.7.1 비지도 사전학습의 변형들 290
4.7.2 지도 사전훈련은 어떨까? 291
4.8 연속법과 커리큘럼 학습 293
4.8.1 연속법 294
4.8.2 커리큘럼 학습 295
4.9 매개변수 공유 296
4.10 비지도 학습의 정칙화 298
4.10.1 값 기반 벌점: 희소 자동부호기 298
4.10.2 잡음 주입: 잡음 제거 자동부호기 299
4.10.3 기울기 기반 벌점: 축약 자동부호기 301
4.10.4 은닉 확률 구조: 변분 자동부호기 305
4.11 요약 314
4.12 문헌 정보 315
4.12.1 소프트웨어 정보 317
연습문제 318

5장 방사상 기저 함수 신경망
5.1 소개 321
5.2 RBF 망의 훈련 326
5.2.1 은닉층의 훈련 326
5.2.2 출력층의 훈련 328
5.2.3 직교 최소제곱 알고리즘 331
5.2.4 완전 지도 학습 332
5.3 RBF 망의 변형 및 특수화 333
5.3.1 퍼셉트론 판정기준을 이용한 분류 334
5.3.2 경첩 손실함수를 이용한 분류 334
5.3.3 RBF 망의 선형 분리가능성 개선 335
5.3.4 RBF 망을 이용한 보간 337
5.4 핵 방법들과의 관계 338
5.4.1 특수한 RBF 망으로서의 핵 회귀 338
5.4.2 특수한 RBF 망으로서의 핵 SVM 339
5.4.3 관찰 340
5.5 요약 341
5.6 문헌 정보 342
연습문제 343

6장 제한 볼츠만 기계
6.1 소개 345
6.1.1 역사적 관점 346
6.2 홉필드 망 347
6.2.1 훈련된 홉필드 망의 최적 상태 구성 349
6.2.2 홉필드 망의 훈련 352
6.2.3 간단한 영화 추천 시스템의 구축과 그 한계 354
6.2.4 홉필드 망의 표현력 증가 355
6.3 볼츠만 기계 357
6.3.1 볼츠만 기계의 자료 생성 359
6.3.2 볼츠만 기계의 가중치 학습 360
6.4 제한 볼츠만 기계 363
6.4.1 RBM의 훈련 366
6.4.2 대조 발산 알고리즘 367
6.4.3 실천상의 문제와 알고리즘 수정 369
6.5 제한 볼츠만 기계의 응용 370
6.5.1 RBM을 이용한 차원 축소와 자료 재구축 371
6.5.2 RBM을 이용한 협업 필터링 374
6.5.3 RBM을 이용한 분류 378
6.5.4 RBM을 이용한 주제 모형화 383
6.5.5 RBM을 이용한 다중 모드 자료 기계 학습 385
6.6 RBM을 이진 자료 이외의 자료에 적용 387
6.7 중첩된 RBM 389
6.7.1 비지도 학습 392
6.7.2 지도 학습 392
6.7.3 심층 볼츠만 기계와 심층 믿음망 393
6.8 요약 394
6.9 문헌 정보 394
연습문제 397

7장 순환 신경망
7.1 소개 399
7.1.1 순환 신경망의 표현력 403
7.2 순환 신경망의 구조 404
7.2.1 RNN을 이용한 언어 모형 예제 408
7.2.2 시간에 따른 역전파 411
7.2.3 양방향 순환 신경망 415
7.2.4 다층 순환 신경망 418
7.3 순환 신경망 훈련의 어려움과 그 해법 420
7.3.1 층 정규화 424
7.4 반향 상태 신경망 426
7.5 장단기 기억(LSTM) 429
7.6 게이트 제어 순환 단위(GRU) 433
7.7 순환 신경망의 응용 436
7.7.1 자동 이미지 캡션 생성 437
7.7.2 순차열 대 순차열 학습과 기계 번역 439
7.7.3 문장 수준 분류 444
7.7.4 언어적 특징을 활용한 토큰 수준 분류 445
7.7.5 시계열 예상 및 예측 447
7.7.6 시간적 추천 시스템 450
7.7.7 2차 단백질 구조 예측 453
7.7.8 종단간 음성 인식 453
7.7.9 필기 인식 454
7.8 요약 455
7.9 문헌 정보 455
7.9.1 소프트웨어 정보 457
연습문제 458

8장 합성곱 신경망
8.1 소개 461
8.1.1 역사 및 생물학의 영향 462
8.1.2 좀 더 넓은 관점에서 본 합성곱 신경망 464
8.2 합성곱 신경망의 기본 구조 465
8.2.1 여백 채우기 472
8.2.2 보폭 474
8.2.3 전형적인 설정 475
8.2.4 ReLU 층 476
8.2.5 풀링 477
8.2.6 층들의 완전 연결 479
8.2.7 서로 다른 층들의 교대 구성 480
8.2.8 국소 반응 정규화 484
8.2.9 위계적 특징 공학 485
8.3 합성곱 신경망의 훈련 487
8.3.1 합성곱 층에 대한 역전파 487
8.3.2 역/전치 필터를 이용한 합성곱 연산으로서의 역전파 489
8.3.3 행렬 곱셈으로서의 합성곱 및 역전파 490
8.3.4 자료 증강 493
8.4 합성곱 신경망 구조의 사례 연구 495
8.4.1 AlexNet 495
8.4.2 ZFNet 499
8.4.3 VGG 500
8.4.4 GoogLeNet 504
8.4.5 ResNet 507
8.4.6 깊이의 효과 512
8.4.7 미리 훈련된 모형들 512
8.5 시각화와 비지도 학습 514
8.5.1 훈련된 합성곱 신경망의 특징 시각화 515
8.5.2 합성곱 자동부호기 522
8.6 합성곱 신경망의 응용 529
8.6.1 내용 기반 이미지 검색 530
8.6.2 물체 위치 추정 530
8.6.3 물체 검출 532
8.6.4 자연어 처리와 순차열 학습 534
8.6.5 동영상 분류 535
8.7 요약 536
8.8 문헌 정보 537
8.8.1 소프트웨어 및 자료 집합 정보 540
연습문제 542

9장 심층 강화 학습
9.1 소개 543
9.2 상태 없는 알고리즘: 여러 팔 강도 547
9.2.1 단순한 알고리즘 548
9.2.2 탐욕 알고리즘 548
9.2.3 상계 방법 549
9.3 강화 학습의 기본 틀 550
9.3.1 강화 학습의 어려움 553
9.3.2 틱택토 게임을 위한 간단한 강화 학습 554
9.3.3 심층 학습의 역할과 잠정적 알고리즘 555
9.4 가치 함수 학습의 부트스트래핑 558
9.4.1 함수 근사기로서의 심층 강화 학습 모형 560
9.4.2 응용 사례: 아타리 설정을 위한 강화 학습 심층 신경망 565
9.4.3 정책 내 방법 대 정책 외 방법: SARSA 566
9.4.4 상태의 모형화 대 상태-동작 쌍 568
9.5 정책 기울기 방법 571
9.5.1 유한차분법 573
9.5.2 가능도비 방법 574
9.5.3 지도 학습과 정책 기울기 방법의 결합 577
9.5.4 행위자-비평자 방법 578
9.5.5 연속 동작 공간 580
9.5.6 정책 기울기 방법의 장단점 581
9.6 몬테카를로 트리 검색 582
9.7 사례 연구 584
9.7.1 알파고: 세계 최고 수준의 인공지능 바둑 기사 584
9.7.2 스스로 배우는 로봇 591
9.7.3 대화 시스템 구축: 챗봇을 위한 심층 학습 596
9.7.4 자율주행차 600
9.7.5 강화 학습을 이용한 신경망 구조의 추론 603
9.8 안전과 관련된 실무적인 어려움들 604
9.9 요약 606
9.10 문헌 정보 606
9.10.1 소프트웨어와 실험 환경 정보 608
연습문제 610

10장 심층 학습의 고급 주제들
10.1 소개 613
10.2 주의 메커니즘 616
10.2.1 시각적 주의의 순환 모형 618
10.2.2 기계 번역을 위한 주의 메커니즘 622
10.3 외부 메모리가 있는 신경망 627
10.3.1 가상 정렬 게임 628
10.3.2 신경 튜링 기계 631
10.3.3 미분 가능 신경 컴퓨터 개괄 639
10.4 생성 대립 신경망(GAN) 641
10.4.1 생성 대립 신경망의 훈련 642
10.4.2 변분 자동부호기와 비교 646
10.4.3 GAN을 이용한 이미지 자료 생성 647
10.4.4 조건부 생성 대립 신경망 649
10.5 경쟁 학습 655
10.5.1 벡터 양자화 657
10.5.2 코호넨 자기조직화 지도 658
10.6 신경망의 한계 662
10.6.1 대담한 목표: 단발 학습 662
10.6.2 대담한 목표: 에너지 효율적 학습 665
10.7 요약 667
10.8 문헌 정보 667
10.8.1 소프트웨어 정보 669
연습문제 671

참고문헌 673
찾아보기 721


리뷰

구매자 별점

0.0

점수비율

  • 5
  • 4
  • 3
  • 2
  • 1

0명이 평가함

리뷰 작성 영역

이 책을 평가해주세요!

내가 남긴 별점 0.0

별로예요

그저 그래요

보통이에요

좋아요

최고예요

별점 취소

구매자 표시 기준은 무엇인가요?

'구매자' 표시는 리디북스에서 유료도서 결제 후 다운로드 하시거나 리디셀렉트 도서를 다운로드하신 경우에만 표시됩니다.

무료 도서 (프로모션 등으로 무료로 전환된 도서 포함)
'구매자'로 표시되지 않습니다.
시리즈 도서 내 무료 도서
'구매자’로 표시되지 않습니다. 하지만 같은 시리즈의 유료 도서를 결제한 뒤 리뷰를 수정하거나 재등록하면 '구매자'로 표시됩니다.
영구 삭제
도서를 영구 삭제해도 ‘구매자’ 표시는 남아있습니다.
결제 취소
‘구매자’ 표시가 자동으로 사라집니다.

이 책과 함께 구매한 책


이 책과 함께 둘러본 책



본문 끝 최상단으로 돌아가기

spinner
모바일 버전