본문 바로가기

리디 접속이 원활하지 않습니다.
강제 새로 고침(Ctrl + F5)이나 브라우저 캐시 삭제를 진행해주세요.
계속해서 문제가 발생한다면 리디 접속 테스트를 통해 원인을 파악하고 대응 방법을 안내드리겠습니다.
테스트 페이지로 이동하기

[체험판] Learning PySpark 상세페이지

[체험판] Learning PySpark

Build data-intensive applications locally and deploy at scale using the combined powers of Python and Spark 2.0

  • 관심 0
소장
판매가
무료
출간 정보
  • 2017.02.27 전자책 출간
듣기 기능
TTS(듣기) 지원
파일 정보
  • PDF
  • 38 쪽
  • 1.3MB
지원 환경
  • PC뷰어
  • PAPER
ISBN
9781786466259
UCI
-

이 작품의 시리즈더보기

  • [체험판] Learning PySpark (Tomasz Drabas, Denny Lee)
  • Learning PySpark (Tomasz Drabas, Denny Lee)
[체험판] Learning PySpark

작품 정보

▶Book Description
Apache Spark is an open source framework for efficient cluster computing with a strong interface for data parallelism and fault tolerance. This book will show you how to leverage the power of Python and put it to use in the Spark ecosystem. You will start by getting a firm understanding of the Spark 2.0 architecture and how to set up a Python environment for Spark.
You will get familiar with the modules available in PySpark. You will learn how to abstract data with RDDs and DataFrames and understand the streaming capabilities of PySpark. Also, you will get a thorough overview of machine learning capabilities of PySpark using ML and MLlib, graph processing using GraphFrames, and polyglot persistence using Blaze. Finally, you will learn how to deploy your applications to the cloud using the spark-submit command.
By the end of this book, you will have established a firm understanding of the Spark Python API and how it can be used to build data-intensive applications.

▶About This Book
⦁ Learn why and how you can efficiently use Python to process data and build machine learning models in Apache Spark 2.0
⦁ Develop and deploy efficient, scalable real-time Spark solutions
⦁ Take your understanding of using Spark with Python to the next level with this jump start guide

▶Who This Book Is For
This book is for everyone who wants to learn the fastest-growing technology in big data: Apache Spark. We hope that even the more advanced practitioners from the field of data science can find some of the examples refreshing and the more advanced topics interesting.

▶What You Will Learn
⦁ Learn about Apache Spark and the Spark 2.0 architecture
⦁ Build and interact with Spark DataFrames using Spark SQL
⦁ Learn how to solve graph and deep learning problems using GraphFrames and TensorFrames respectively
⦁ Read, transform, and understand data and use it to train machine learning models
⦁ Build machine learning models with MLlib and ML
⦁ Learn how to submit your applications programmatically using spark-submit
⦁ Deploy locally built applications to a cluster

▶Style and approach
This book takes a very comprehensive, step-by-step approach so you understand how the Spark ecosystem can be used with Python to develop efficient, scalable solutions. Every chapter is standalone and written in a very easy-to-understand manner, with a focus on both the hows and the whys of each concept.

▶What this book covers
⦁ Chapter 1, Understanding Spark, provides an introduction into the Spark world with an overview of the technology and the jobs organization concepts.
⦁ Chapter 2, Resilient Distributed Datasets, covers RDDs, the fundamental, schema-less data structure available in PySpark.
⦁ Chapter 3, DataFrames, provides a detailed overview of a data structure that bridges the gap between Scala and Python in terms of efficiency.
⦁ Chapter 4, Prepare Data for Modeling, guides the reader through the process of cleaning up and transforming data in the Spark environment.
⦁ Chapter 5, Introducing MLlib, introduces the machine learning library that works on RDDs and reviews the most useful machine learning models.
⦁ Chapter 6, Introducing the ML Package, covers the current mainstream machine learning library and provides an overview of all the models currently available.
⦁ Chapter 7, GraphFrames, will guide you through the new structure that makes solving problems with graphs easy.
⦁ Chapter 8, TensorFrames, introduces the bridge between Spark and the Deep Learning world of TensorFlow.
⦁ Chapter 9, Polyglot Persistence with Blaze, describes how Blaze can be paired with Spark for even easier abstraction of data from various sources.
⦁ Chapter 10, Structured Streaming, provides an overview of streaming tools available in PySpark.
⦁ Chapter 11, Packaging Spark Applications, will guide you through the steps of modularizing your code and submitting it for execution to Spark through command-line interface.

작가 소개

⦁Tomasz Drabas
Tomasz Drabas is a Data Scientist working for Microsoft and currently residing in the Seattle area. He has over 13 years of experience in data analytics and data science in numerous fields: advanced technology, airlines, telecommunications, finance, and consulting he gained while working on three continents: Europe, Australia, and North America. While in Australia, Tomasz has been working on his PhD in Operations Research with a focus on choice modeling and revenue management applications in the airline industry. At Microsoft, Tomasz works with big data on a daily basis, solving machine learning problems such as anomaly detection, churn prediction, and pattern recognition using Spark. Tomasz has also authored the Practical Data Analysis Cookbook published by Packt Publishing in 2016.

⦁Denny Lee
Denny Lee is a Principal Program Manager at Microsoft for the Azure DocumentDB team—Microsoft's blazing fast, planet-scale managed document store service. He is a hands-on distributed systems and data science engineer with more than 18 years of experience developing Internet-scale infrastructure, data platforms, and predictive analytics systems for both on-premise and cloud environments.
He has extensive experience of building greenfield teams as well as turnaround/ change catalyst. Prior to joining the Azure DocumentDB team, Denny worked as a Technology Evangelist at Databricks; he has been working with Apache Spark since 0.5. He was also the Senior Director of Data Sciences Engineering at Concur, and was on the incubation team that built Microsoft's Hadoop on Windows and Azure service (currently known as HDInsight). Denny also has a Masters in Biomedical Informatics from Oregon Health and Sciences University and has architected and implemented powerful data solutions for enterprise healthcare customers for the last 15 years.

리뷰

0.0

구매자 별점
0명 평가

이 작품을 평가해 주세요!

건전한 리뷰 정착 및 양질의 리뷰를 위해 아래 해당하는 리뷰는 비공개 조치될 수 있음을 안내드립니다.
  1. 타인에게 불쾌감을 주는 욕설
  2. 비속어나 타인을 비방하는 내용
  3. 특정 종교, 민족, 계층을 비방하는 내용
  4. 해당 작품의 줄거리나 리디 서비스 이용과 관련이 없는 내용
  5. 의미를 알 수 없는 내용
  6. 광고 및 반복적인 글을 게시하여 서비스 품질을 떨어트리는 내용
  7. 저작권상 문제의 소지가 있는 내용
  8. 다른 리뷰에 대한 반박이나 논쟁을 유발하는 내용
* 결말을 예상할 수 있는 리뷰는 자제하여 주시기 바랍니다.
이 외에도 건전한 리뷰 문화 형성을 위한 운영 목적과 취지에 맞지 않는 내용은 담당자에 의해 리뷰가 비공개 처리가 될 수 있습니다.
아직 등록된 리뷰가 없습니다.
첫 번째 리뷰를 남겨주세요!
'구매자' 표시는 유료 작품 결제 후 다운로드하거나 리디셀렉트 작품을 다운로드 한 경우에만 표시됩니다.
무료 작품 (프로모션 등으로 무료로 전환된 작품 포함)
'구매자'로 표시되지 않습니다.
시리즈 내 무료 작품
'구매자'로 표시되지 않습니다. 하지만 같은 시리즈의 유료 작품을 결제한 뒤 리뷰를 수정하거나 재등록하면 '구매자'로 표시됩니다.
영구 삭제
작품을 영구 삭제해도 '구매자' 표시는 남아있습니다.
결제 취소
'구매자' 표시가 자동으로 사라집니다.

개발/프로그래밍 베스트더보기

  • 요즘 바이브 코딩 클로드 코드 완벽 가이드 (최지호(코드팩토리))
  • 바이브 코딩 너머 개발자 생존법 (애디 오스마니, 강민혁)
  • 그림으로 이해하는 챗GPT 구조와 기술 (나카타니 슈요, 박광수)
  • 요즘 개발자를 위한 시스템 설계 수업 (디렌드라 신하 , 테자스 초프라)
  • 밑바닥부터 만들면서 배우는 LLM (세바스찬 라시카, 박해선)
  • 요즘 당근 AI 개발 (당근 팀)
  • AI 엔지니어링 (칩 후옌, 변성윤)
  • 스프링 부트 3와 스프링 클라우드를 활용한 마이크로서비스 구축 (마그누스 라르손, 트랜스메이트)
  • PyTorch로 배우는 딥러닝과 생성형 AI (박유성)
  • 개정판 | 혼자 공부하는 머신러닝+딥러닝 (박해선)
  • 혼자 공부하는 컴퓨터 구조+운영체제 (강민철)
  • AI 에이전트 생태계 (이주환)
  • AWS 잘하는 개발자 되기 (김재욱)
  • 0과 1 사이 (가와타 아키라, 고이케 유키)
  • AI 프로덕트 기획과 운영 (마릴리 니카, 오성근)
  • n8n 첫걸음 업무 자동화 부터 AI 챗봇 까지 (문세환)
  • 딥러닝 제대로 이해하기 (사이먼 J. D. 프린스, 고연이)
  • 데이터 삽질 끝에 UX가 보였다 (이미진(란란))
  • 개정판 | 린 스타트업 (애시 모리아, 권혜정)
  • 객체지향의 사실과 오해 (조영호)

본문 끝 최상단으로 돌아가기

spinner
앱으로 연결해서 다운로드하시겠습니까?
닫기 버튼
대여한 작품은 다운로드 시점부터 대여가 시작됩니다.
앱으로 연결해서 보시겠습니까?
닫기 버튼
앱이 설치되어 있지 않으면 앱 다운로드로 자동 연결됩니다.
모바일 버전