본문 바로가기

리디 접속이 원활하지 않습니다.
강제 새로 고침(Ctrl + F5)이나 브라우저 캐시 삭제를 진행해주세요.
계속해서 문제가 발생한다면 리디 접속 테스트를 통해 원인을 파악하고 대응 방법을 안내드리겠습니다.
테스트 페이지로 이동하기

Deep Reinforcement Learning Hands-On 상세페이지

Deep Reinforcement Learning Hands-On

Apply modern RL methods, with deep Q-networks, value iteration, policy gradients, TRPO, AlphaGo Zero and more

  • 관심 0
소장
전자책 정가
12,000원
판매가
12,000원
출간 정보
  • 2018.06.21 전자책 출간
듣기 기능
TTS(듣기) 지원
파일 정보
  • PDF
  • 547 쪽
  • 7.3MB
지원 환경
  • PC뷰어
  • PAPER
ISBN
9781788839303
ECN
-
Deep Reinforcement Learning Hands-On

작품 정보

▶Book Description
Recent developments in reinforcement learning (RL), combined with deep learning (DL), have seen unprecedented progress made towards training agents to solve complex problems in a human-like way. Google's use of algorithms to play and defeat the well-known Atari arcade games has propelled the field to prominence, and researchers are generating new ideas at a rapid pace.

Deep Reinforcement Learning Hands-On is a comprehensive guide to the very latest DL tools and their limitations. You will evaluate methods including Cross-entropy and policy gradients, before applying them to real-world environments. Take on both the Atari set of virtual games and family favorites such as Connect4. The book provides an introduction to the basics of RL, giving you the know-how to code intelligent learning agents to take on a formidable array of practical tasks. Discover how to implement Q-learning on 'grid world' environments, teach your agent to buy and trade stocks, and find out how natural language models are driving the boom in chatbots.

▶What You Will Learn
⦁ Understand the DL context of RL and implement complex DL models
⦁ Learn the foundation of RL: Markov decision processes
⦁ Evaluate RL methods including Cross-entropy, DQN, Actor-Critic, TRPO, PPO, DDPG, D4PG and others
⦁ Discover how to deal with discrete and continuous action spaces in various environments
⦁ Defeat Atari arcade games using the value iteration method
⦁ Create your own OpenAI Gym environment to train a stock trading agent
⦁ Teach your agent to play Connect4 using AlphaGo Zero
⦁ Explore the very latest deep RL research on topics including AI-driven chatbots

▶Key Features
⦁ Explore deep reinforcement learning (RL), from the first principles to the latest algorithms
⦁ Evaluate high-profile RL methods, including value iteration, deep Q-networks, policy gradients, TRPO, PPO, DDPG, D4PG, evolution strategies and genetic algorithms
⦁ Keep up with the very latest industry developments, including AI-driven chatbots

▶Who This Book Is For
The main target audience are people who have some knowledge in Machine Learning, but interested to get a practical understanding of the Reinforcement Learning domain. A reader should be familiar with Python and the basics of deep learning and machine learning. Understanding of statistics and probability will be a plus, but is not absolutely essential for understanding most of the book's material.

▶What this book covers
⦁ Chapter 1, What is Reinforcement Learning?, contains introduction to RL ideas and main formal models.

⦁ Chapter 2, OpenAI Gym, introduces the reader to the practical aspect of RL, using open-source library gym.

⦁ Chapter 3, Deep Learning with PyTorch, gives a quick overview of the PyTorch library.

⦁ Chapter 4, The Cross-Entropy Method, introduces you to one of the simplest methods of RL to give you the feeling of RL methods and problems.

⦁ Chapter 5, Tabular Learning and the Bellman Equation, gives an introduction to the Value-based family of RL methods.

⦁ Chapter 6, Deep Q-Networks, describes DQN, the extension of basic Value-based methods, allowing to solve complicated environment.

⦁ Chapter 7, DQN Extensions, gives a detailed overview of modern extension to the DQN method, to improve its stability and convergence in complex environments.

⦁ Chapter 8, Stocks Trading Using RL, is the first practical project, applying the DQN method to stock trading.

⦁ Chapter 9, Policy Gradients –- An Alternative, introduces another family of RL methods, based on policy learning.

⦁ Chapter 10, The Actor-Critic Method, describes one of the most widely used method in RL.

⦁ Chapter 11, Asynchronous Advantage Actor-Critic, extends Actor-Critic with parallel environment communication, to improve stability and convergence.

⦁ Chapter 12, Chatbots Training with RL, is the second project, showing how to apply RL methods to NLP problems.

⦁ Chapter 13, Web Navigation, is another long project, applying RL to web page navigation, using MiniWoB set of tasks.

⦁ Chapter 14, Continuous Action Space, describes the specifics of environments, using continuous action spaces and various methods.

⦁ Chapter 15, Trust Regions –- TRPO, PPO, and ACKTR, is yet another chapter about continuous action spaces describing "Trust region" set of methods.

⦁ Chapter 16, Black-Box Optimization in RL, shows another set of methods that don't use gradients in explicit form.

⦁ Chapter 17, Beyond Model-Free –- Imagination, introduces model-based approach to RL, using recent research results about imagination in RL.

⦁ Chapter 18, AlphaGo Zero, describes the AlphaGo Zero method applied to game Connect Four.

작가 소개

⦁ Maxim Lapan
Maxim Lapan is a deep learning enthusiast and independent researcher. His background and 15 years' work expertise as a software developer and a systems architect lays from low-level Linux kernel driver development to performance optimization and design of distributed applications working on thousands of servers. With vast work experiences in big data, Machine Learning, and large parallel distributed HPC and nonHPC systems, he has a talent to explain a gist of complicated things in simple words and vivid examples. His current areas of interest lie in practical applications of Deep Learning, such as Deep Natural Language Processing and Deep Reinforcement Learning. Maxim lives in Moscow, Russian Federation, with his family, and he works for an Israeli start-up as a Senior NLP developer.

리뷰

0.0

구매자 별점
0명 평가

이 작품을 평가해 주세요!

건전한 리뷰 정착 및 양질의 리뷰를 위해 아래 해당하는 리뷰는 비공개 조치될 수 있음을 안내드립니다.
  1. 타인에게 불쾌감을 주는 욕설
  2. 비속어나 타인을 비방하는 내용
  3. 특정 종교, 민족, 계층을 비방하는 내용
  4. 해당 작품의 줄거리나 리디 서비스 이용과 관련이 없는 내용
  5. 의미를 알 수 없는 내용
  6. 광고 및 반복적인 글을 게시하여 서비스 품질을 떨어트리는 내용
  7. 저작권상 문제의 소지가 있는 내용
  8. 다른 리뷰에 대한 반박이나 논쟁을 유발하는 내용
* 결말을 예상할 수 있는 리뷰는 자제하여 주시기 바랍니다.
이 외에도 건전한 리뷰 문화 형성을 위한 운영 목적과 취지에 맞지 않는 내용은 담당자에 의해 리뷰가 비공개 처리가 될 수 있습니다.
아직 등록된 리뷰가 없습니다.
첫 번째 리뷰를 남겨주세요!
'구매자' 표시는 유료 작품 결제 후 다운로드하거나 리디셀렉트 작품을 다운로드 한 경우에만 표시됩니다.
무료 작품 (프로모션 등으로 무료로 전환된 작품 포함)
'구매자'로 표시되지 않습니다.
시리즈 내 무료 작품
'구매자'로 표시되지 않습니다. 하지만 같은 시리즈의 유료 작품을 결제한 뒤 리뷰를 수정하거나 재등록하면 '구매자'로 표시됩니다.
영구 삭제
작품을 영구 삭제해도 '구매자' 표시는 남아있습니다.
결제 취소
'구매자' 표시가 자동으로 사라집니다.

개발/프로그래밍 베스트더보기

  • AI 에이전트 생태계 (이주환)
  • 헤드 퍼스트 소프트웨어 아키텍처 (라주 간디, 마크 리처드)
  • 깃허브 액션으로 구현하는 실전 CI/CD 설계와 운영 (노무라 도모키, 김완섭)
  • 현장에서 통하는 도메인 주도 설계 실전 가이드 (마스다 토오루, 타나카 히사테루)
  • 딥러닝 제대로 이해하기 (사이먼 J. D. 프린스, 고연이)
  • 핸즈온 LLM (제이 알아마르, 마르턴 흐루턴도르스트)
  • 네이처 오브 코드 (자바스크립트판) (다니엘 쉬프만, 윤인성)
  • 도커로 구축한 랩에서 혼자 실습하며 배우는 네트워크 프로토콜 입문 (미야타 히로시, 이민성)
  • 개정판 | Do it! 플러터 앱 개발 & 출시하기 (조준수)
  • 모던 리액트 Deep Dive (김용찬)
  • 그로킹 동시성 (키릴 보브로프, 심효섭)
  • 해커톤 (노아론)
  • LLM과 RAG로 구현하는 AI 애플리케이션 (에디유, 대니얼김)
  • 이게 되네? 클로드 MCP 미친 활용법 27제 (박현규)
  • 개정2판 | 시작하세요! 도커/쿠버네티스 (용찬호)
  • 개정2판 | 파인만의 컴퓨터 강의 (리처드 파인만, 서환수)
  • npm Deep Dive (전유정, 김용찬)
  • 생성형 AI를 위한 프롬프트 엔지니어링 (제임스 피닉스, 마이크 테일러)
  • 딥러닝 프로젝트를 위한 허깅페이스 실전 가이드 (윤대희, 김동화)
  • 한 권으로 배우는 게임 프로그래밍 (박태준, 박효재)

본문 끝 최상단으로 돌아가기

spinner
앱으로 연결해서 다운로드하시겠습니까?
닫기 버튼
대여한 작품은 다운로드 시점부터 대여가 시작됩니다.
앱으로 연결해서 보시겠습니까?
닫기 버튼
앱이 설치되어 있지 않으면 앱 다운로드로 자동 연결됩니다.
모바일 버전