본문 바로가기

리디 접속이 원활하지 않습니다.
강제 새로 고침(Ctrl + F5)이나 브라우저 캐시 삭제를 진행해주세요.
계속해서 문제가 발생한다면 리디 접속 테스트를 통해 원인을 파악하고 대응 방법을 안내드리겠습니다.
테스트 페이지로 이동하기

No Fluff, Just Stats 1 상세페이지

No Fluff, Just Stats 1

  • 관심 0
소장
전자책 정가
5,500원
판매가
5,500원
출간 정보
  • 2025.08.08 전자책 출간
듣기 기능
TTS(듣기) 지원
파일 정보
  • EPUB
  • 약 7.3만 자
  • 5.7MB
지원 환경
  • PC뷰어
  • PAPER
ISBN
9791198883964
ECN
-
No Fluff, Just Stats 1

작품 정보

○ 이 책은 영어로 제작되었습니다.

In the end, it seems that everything in statistics leads back to Bayes' theorem. Bayes' theorem is a method for calculating the probability or probability distribution of a cause given an observed result. In this world, everything proceeds from cause to result, and our perception also follows that natural direction. So, analyzing causes based on observed results doesn't feel intuitive. However, by using Bayes' theorem—leveraging both the statistical properties of causes and the probabilistic nature of the causal relationship from cause to result—we can tackle this unintuitive problem. The world seems to be full of results, while the causes often remain matters of speculation. For instance, we try to infer people’s mental states from their behaviors, or we use the past to predict the present and the future. In more complex domains, we estimate chromosomal abnormalities from gene expression data or infer the existence of subatomic particles from particle physics experiments. And yet, knowing the cause is essential for making better decisions and for uncovering more causal relationships—this is why we are always curious about causes. Therefore, I believe that a deep understanding of Bayes' theorem is essential for navigating this complex and unpredictable world.

Bayes' theorem, despite its significance, has a surprisingly simple mathematical form. Once you understand the basic concepts of statistics, grasping Bayes' theorem isn’t too difficult. However, it’s one of those ideas that reveal deeper meaning the more you think about it. For example, what does the statistical property or probability distribution of a cause even mean? That in itself is not always clear. Some call it the essential nature of an object—like how a fair coin is said to have a 1/2 probability of landing heads or tails. This is the view of the frequentist school. But in reality, we rarely observe such perfectly balanced probabilities. In fact, given the physical irregularities or asymmetries of coins, it’s safe to say the probability is not exactly 1/2. Still, we believe it is. This belief-driven interpretation of probability is the stance of the Bayesian school. So who’s right? According to quantum mechanics, the very act of observation can affect the result of an experiment, meaning we may never know the truth. Even such a simple concept remains only partially understood.

Furthermore, if you look at the formula, there seems to be a kind of symmetry between the direction from cause to result and from result to cause. Statistics itself does not distinguish between the two. But the real world we live in clearly differentiates cause and result—and we tend to be more curious about causes. Just like time flows from past to present under the law of entropy, despite physical laws being time-symmetric, events in our world flow from cause to result, even if Bayes’ theorem suggests a mathematical symmetry. This unresolved tension within Bayes' theorem continues to fascinate statisticians who study causal inference.

Beyond these philosophical implications, Bayes' theorem is also practically important. When we lack prior knowledge or belief about the probability of a cause, we are forced to rely only on the statistical properties from cause to result to infer the cause from the result. In such cases, we assume a uniform prior distribution for the cause—this is known as Maximum Likelihood Estimation (MLE). On the other hand, when we do have sufficient prior information about the cause, we can infer the cause from the result by weighing it equally with the statistical properties from cause to result. This is called Maximum A Posteriori estimation (MAP). In situations where we don’t even know the distribution of the result, we use an alternative known as a variational distribution to approximate the true distribution as closely as possible. In such cases, Bayes’ theorem is expressed using the Evidence Lower Bound (ELBO) and Kullback-Leibler (KL) divergence. These concepts are central in information theory and machine learning. Examples also include the assumption of uniform distribution for p-values in statistical testing, or how next-generation AI systems based on logical reasoning use categorical priors instead of statistical ones—these are all representative applications of Bayes' theorem in advanced statistical theory.

This book is divided into separate sections on the population and the sample group and deals with fundamental concepts of statistics. But because the ideas are organized so coherently, readers will be able to see how Bayes' theorem—despite its simple formula—appears in various contexts within statistics. The author hopes this will help readers take one step closer to the deep mysteries of the world we live in.

작가 소개

○ Jeongbin Park

The author, 'Jeongbin Park,' has completed his bachelor's and master's degrees at Seoul National University. He is currently pursuing a Ph.D. program in Bioinformatics at UMich with the aim of delving deeply into the realms of science and technology.

Email | nate9389@gmail.com

리뷰

0.0

구매자 별점
0명 평가

이 작품을 평가해 주세요!

건전한 리뷰 정착 및 양질의 리뷰를 위해 아래 해당하는 리뷰는 비공개 조치될 수 있음을 안내드립니다.
  1. 타인에게 불쾌감을 주는 욕설
  2. 비속어나 타인을 비방하는 내용
  3. 특정 종교, 민족, 계층을 비방하는 내용
  4. 해당 작품의 줄거리나 리디 서비스 이용과 관련이 없는 내용
  5. 의미를 알 수 없는 내용
  6. 광고 및 반복적인 글을 게시하여 서비스 품질을 떨어트리는 내용
  7. 저작권상 문제의 소지가 있는 내용
  8. 다른 리뷰에 대한 반박이나 논쟁을 유발하는 내용
* 결말을 예상할 수 있는 리뷰는 자제하여 주시기 바랍니다.
이 외에도 건전한 리뷰 문화 형성을 위한 운영 목적과 취지에 맞지 않는 내용은 담당자에 의해 리뷰가 비공개 처리가 될 수 있습니다.
아직 등록된 리뷰가 없습니다.
첫 번째 리뷰를 남겨주세요!
'구매자' 표시는 유료 작품 결제 후 다운로드하거나 리디셀렉트 작품을 다운로드 한 경우에만 표시됩니다.
무료 작품 (프로모션 등으로 무료로 전환된 작품 포함)
'구매자'로 표시되지 않습니다.
시리즈 내 무료 작품
'구매자'로 표시되지 않습니다. 하지만 같은 시리즈의 유료 작품을 결제한 뒤 리뷰를 수정하거나 재등록하면 '구매자'로 표시됩니다.
영구 삭제
작품을 영구 삭제해도 '구매자' 표시는 남아있습니다.
결제 취소
'구매자' 표시가 자동으로 사라집니다.

수학 베스트더보기

  • 기계는 왜 학습하는가 (아닐 아난타스와미, 노승영)
  • 지식의 기초 (데이비드 니런버그, 리카도 L . 니런버그)
  • 수학의 쓸모 (닉 폴슨, 제임스 스콧)
  • 신도 주사위 놀이를 한다 (이언 스튜어트, 장영재)
  • 수학이데아 (신정수)
  • 개정증보판 | 미술관에 간 수학자 (이광연)
  • 중등 수학 한 권에 쏙! (김영조, 류승재)
  • 150분이면 충분한 중고등학교 기초 수학 (요네다 마사타카, 손민규)
  • 다시 쓰는 수학의 역사 (케이트 기타가와, 티모시 레벨)
  • 수학자의 변명 (고드프리 해럴드 하디, 권혁)
  • 빅데이터 시대, 올바른 인사이트를 위한 통계 101×데이터 분석 (아베 마사토, 안동현)
  • 수학의 이유 (이언 스튜어트, 김성훈)
  • 예제로 배우는 R 통계학 (민만식, 정형철)
  • 기하학 세상을 설명하다 (조던 엘렌버그, 장영재)
  • 알고리즘이 지배한다는 착각 (데이비드 섬프터, 전대호)
  • 미적분의 힘 (스티븐 스트로가츠, 이충호)
  • 세계를 바꾼 17가지 방정식 (이언 스튜어트, 김지선)
  • 해석학 첫걸음 (스티븐 애벗, 한빛수학교재연구소)
  • 최고의 수학자가 사랑한 문제들 (이언 스튜어트, 전대호)
  • 숫자에 약한 사람들을 위한 통계학 수업 (데이비드 스피겔할터, 권혜승)

본문 끝 최상단으로 돌아가기

spinner
앱으로 연결해서 다운로드하시겠습니까?
닫기 버튼
대여한 작품은 다운로드 시점부터 대여가 시작됩니다.
앱으로 연결해서 보시겠습니까?
닫기 버튼
앱이 설치되어 있지 않으면 앱 다운로드로 자동 연결됩니다.
모바일 버전