The Data Science Workshop - Second Edition



- Ocena:
- Bądź pierwszym, który oceni tę książkę
- Stron:
- 824
- Dostępne formaty:
-
PDFePubMobi
Opis książki: The Data Science Workshop - Second Edition
Where there's data, there's insight. With so much data being generated, there is immense scope to extract meaningful information that'll boost business productivity and profitability. By learning to convert raw data into game-changing insights, you'll open new career paths and opportunities.
The Data Science Workshop begins by introducing different types of projects and showing you how to incorporate machine learning algorithms in them. You'll learn to select a relevant metric and even assess the performance of your model. To tune the hyperparameters of an algorithm and improve its accuracy, you'll get hands-on with approaches such as grid search and random search.
Next, you'll learn dimensionality reduction techniques to easily handle many variables at once, before exploring how to use model ensembling techniques and create new features to enhance model performance. In a bid to help you automatically create new features that improve your model, the book demonstrates how to use the automated feature engineering tool. You'll also understand how to use the orchestration and scheduling workflow to deploy machine learning models in batch.
By the end of this book, you'll have the skills to start working on data science projects confidently. By the end of this book, you'll have the skills to start working on data science projects confidently.
Wybrane bestsellery
-
Oto intuicyjny przewodnik dla średnio zaawansowanych programistów Pythona, pomyślany tak, by przyswajać zasady programowania zorientowanego obiektowo podczas praktycznych ćwiczeń. Dowiesz się, jakie problemy wiążą się z zastosowaniem podejścia proceduralnego i jak dzięki podejściu obiektowemu pis...
Python zorientowany obiektowo. Programowanie gier i graficznych interfejsów użytkownika Python zorientowany obiektowo. Programowanie gier i graficznych interfejsów użytkownika
(0,00 zł najniższa cena z 30 dni)62.30 zł
89.00 zł(-30%) -
To drugie, zaktualizowane i poprawione wydanie bestsellerowego podręcznika Programowania w Pythonie pozwoli Ci błyskawicznie zacząć tworzyć kod, który działa! Zaczniesz od zrozumienia podstawowych koncepcji programistycznych, następnie nauczysz się zapewniać programom interaktywność i wykształcis...(0,00 zł najniższa cena z 30 dni)
69.30 zł
99.00 zł(-30%) -
To kompleksowy podręcznik do nauki programowania w Pythonie. Jego piąte wydanie zostało gruntownie zaktualizowane i rozbudowane o dodatkowe treści. Omówiono tu najnowsze wersje Pythona w liniach 3.X i 2.X, czyli 3.3 i 2.7, i dodano opisy nowych lub rozszerzonych mechanizmów, takich jak obsługa fo...(0,00 zł najniższa cena z 30 dni)
139.30 zł
199.00 zł(-30%) -
Dzięki tej książce nauczysz się przekształcać suche dane liczbowe w pełną empatii narrację! Aby spełniły one swoje zadanie, ktoś musi przedstawić zawarte w nich informacje w postaci opowieści. W tej publikacji wyczerpująco i praktycznie opisano przebieg tego procesu. Jej lektura sprawi, że rozwin...
Opowieści ukryte w danych. Wyjaśnij dane i wywołaj działania za pomocą narracji Opowieści ukryte w danych. Wyjaśnij dane i wywołaj działania za pomocą narracji
(0,00 zł najniższa cena z 30 dni)20.90 zł
67.00 zł(-69%) -
Dzięki tej książce przekonasz się, jak wspaniałą przygodą jest programowanie i jak łatwo ją zacząć! Poznasz podstawy Pythona, dowiesz się, jak pisać i formatować kod, a także szybko nauczysz się uruchamiać swoje programy. Instrukcje sterujące, operatory, typy danych, funkcje, klasy i moduły nie b...
Python 3. Projekty dla początkujących i pasjonatów Python 3. Projekty dla początkujących i pasjonatów
(0,00 zł najniższa cena z 30 dni)41.93 zł
59.90 zł(-30%) -
Ta książka jest przystępnym wprowadzeniem do kryptografii i bibliotek kryptograficznych Pythona. Omówiono tu podstawowe koncepcje z tej dziedziny, najważniejsze algorytmy i niezbędny zakres podstaw matematycznych: liczby pierwsze, teorię grup czy generatory liczb pseudolosowych. Wyjaśniono, czym ...
Algorytmy kryptograficzne w Pythonie. Wprowadzenie Algorytmy kryptograficzne w Pythonie. Wprowadzenie
(0,00 zł najniższa cena z 30 dni)48.30 zł
69.00 zł(-30%) -
Metody statystyczne są kluczowym elementem data science, mimo to niewielu specjalistów data science posiada formalne wykształcenie statystyczne. Kursy i podręczniki o podstawach statystyki, rzadko kiedy omawiają temat z perspektywy data science. W drugim wydaniu tego popularnego podręcznika zosta...
Statystyka praktyczna w data science. 50 kluczowych zagadnień w językach R i Python. Wydanie II Statystyka praktyczna w data science. 50 kluczowych zagadnień w językach R i Python. Wydanie II
(0,00 zł najniższa cena z 30 dni)48.30 zł
69.00 zł(-30%) -
To kolejne wydanie lubianego samouczka, dzięki któremu w ramach 24 godzinnych lekcji przyswoisz solidne podstawy programowania. Zrozumiesz, jak działają programy, i nauczysz się reguł stosowanych przez profesjonalistów przy ich projektowaniu. Dowiesz się, jak wygląda świat programistów i na czym ...
Programowanie dla początkujących w 24 godziny. Wydanie IV Programowanie dla początkujących w 24 godziny. Wydanie IV
(0,00 zł najniższa cena z 30 dni)41.40 zł
69.00 zł(-40%) -
Ta książka jest zwięzłym, skupionym na praktyce przewodnikiem po Pythonie w wersji 3.6 i nowszych. Dzięki niej skoncentrujesz się na rdzeniu języka i podstawowych zagadnieniach, które musisz doskonale opanować, jeśli chcesz pisać w nim dobry kod. Dowiesz się zatem, jak działa Python i jakich zasa...(0,00 zł najniższa cena z 30 dni)
48.30 zł
69.00 zł(-30%) -
Wiernym czytelnikom publikacji spod znaku wydawnictwa Helion Piotra Wróblewskiego przedstawiać nie trzeba. Dość wspomnieć, że jest on autorem wielu publikacji poświęconych głównie programowaniu i obsłudze komputerów. Jego najnowsza książka, Algorytmy w Pythonie. Techniki programowania dla praktyk...
Algorytmy w Pythonie. Techniki programowania dla praktyków Algorytmy w Pythonie. Techniki programowania dla praktyków
(0,00 zł najniższa cena z 30 dni)83.30 zł
119.00 zł(-30%)
Anthony So, Thomas V. Joseph, Robert Thas John, Andrew Worsley, Dr. Samuel Asare - pozostałe książki
-
Get started with TensorFlow fundamentals to build and train deep learning models with real-world data, practical exercises, and challenging activities
-
Start with the basics of reinforcement learning and explore deep learning concepts such as deep Q-learning, deep recurrent Q-networks, and policy-based methods with this practical guide
The Reinforcement Learning Workshop The Reinforcement Learning Workshop
Alessandro Palmas, Emanuele Ghelfi, Dr. Alexandra Galina Petre, Mayur Kulkarni, Anand N.S.
-
Take a hands-on approach to understanding deep learning and build smart applications that can recognize images and interpret text
The Deep Learning Workshop The Deep Learning Workshop
Mirza Rahim Baig, Thomas V. Joseph, Nipun Sadvilkar, Mohan Kumar Silaparasetty, Anthony So
-
With knowledge and information shared by experts, take your first steps towards creating scalable AI algorithms and solutions in Python, through practical exercises and engaging activities
-
Cut through the noise and get real results with a step-by-step approach to data science
The Data Science Workshop The Data Science Workshop
Anthony So, Thomas V. Joseph, Robert Thas John, Andrew Worsley, Dr. Samuel Asare
Ebooka przeczytasz na:
-
czytnikach Inkbook, Kindle, Pocketbook i innych
-
systemach Windows, MacOS i innych
-
systemach Windows, Android, iOS, HarmonyOS
-
na dowolnych urządzeniach i aplikacjach obsługujących formaty: PDF, EPub, Mobi
Masz pytania? Zajrzyj do zakładki Pomoc »
Audiobooka posłuchasz:
-
w aplikacji Ebookpoint na Android, iOS, HarmonyOs
-
na systemach Windows, MacOS i innych
-
na dowolonych urządzeniach i aplikacjach obsługujących format MP3 (pliki spakowane w ZIP)
Masz pytania? Zajrzyj do zakładki Pomoc »
Kurs Video zobaczysz:
-
w aplikacji Ebookpoint na Android, iOS, HarmonyOs
-
na systemach Windows, MacOS i innych
-
na dowolonych urządzeniach i aplikacjach obsługujących format MP4 (pliki spakowane w ZIP)
Szczegóły książki
- Tytuł oryginału:
- The Data Science Workshop - Second Edition
- ISBN Ebooka:
- 978-18-005-6940-9, 9781800569409
- Data wydania ebooka:
-
2020-08-28
Data wydania ebooka często jest dniem wprowadzenia tytułu do sprzedaży i może nie być równoznaczna z datą wydania książki papierowej. Dodatkowe informacje możesz znaleźć w darmowym fragmencie. Jeśli masz wątpliwości skontaktuj się z nami sklep@helion.pl.
- Język publikacji:
- angielski
- Rozmiar pliku Pdf:
- 24.5MB
- Rozmiar pliku ePub:
- 39.9MB
- Rozmiar pliku Mobi:
- 39.9MB
- Kategorie:
Programowanie » Python - Programowanie
Big Data » Analiza danych
Spis treści książki
- The Data Science Workshop
- Second Edition
- Preface
- About the Book
- Audience
- About the Chapters
- Conventions
- Code Presentation
- Setting up Your Environment
- How to Set Up Google Colab
- How to Use Google Colab
- Accessing the Code Files
- About the Book
- 1. Introduction to Data Science in Python
- Introduction
- Application of Data Science
- What Is Machine Learning?
- Supervised Learning
- Unsupervised Learning
- Reinforcement Learning
- What Is Machine Learning?
- Overview of Python
- Types of Variable
- Numeric Variables
- Text Variables
- Python List
- Python Dictionary
- Types of Variable
- Exercise 1.01: Creating a Dictionary That Will Contain Machine Learning Algorithms
- Python for Data Science
- The pandas Package
- DataFrame and Series
- CSV Files
- Excel Spreadsheets
- JSON
- The pandas Package
- Exercise 1.02: Loading Data of Different Formats into a pandas DataFrame
- Scikit-Learn
- What Is a Model?
- Model Hyperparameters
- The sklearn API
- What Is a Model?
- Exercise 1.03: Predicting Breast Cancer from a Dataset Using sklearn
- Activity 1.01: Train a Spam Detector Algorithm
- Summary
- 2. Regression
- Introduction
- Simple Linear Regression
- The Method of Least Squares
- Multiple Linear Regression
- Estimating the Regression Coefficients (0, 1, 2 and 3)
- Logarithmic Transformations of Variables
- Correlation Matrices
- Conducting Regression Analysis Using Python
- Exercise 2.01: Loading and Preparing the Data for Analysis
- The Correlation Coefficient
- Exercise 2.02: Graphical Investigation of Linear Relationships Using Python
- Exercise 2.03: Examining a Possible Log-Linear Relationship Using Python
- The Statsmodels formula API
- Exercise 2.04: Fitting a Simple Linear Regression Model Using the Statsmodels formula API
- Analyzing the Model Summary
- The Model Formula Language
- Intercept Handling
- Activity 2.01: Fitting a Log-Linear Model Using the Statsmodels Formula API
- Multiple Regression Analysis
- Exercise 2.05: Fitting a Multiple Linear Regression Model Using the Statsmodels Formula API
- Assumptions of Regression Analysis
- Activity 2.02: Fitting a Multiple Log-Linear Regression Model
- Explaining the Results of Regression Analysis
- Regression Analysis Checks and Balances
- The F-test
- The t-test
- Summary
- 3. Binary Classification
- Introduction
- Understanding the Business Context
- Business Discovery
- Exercise 3.01: Loading and Exploring the Data from the Dataset
- Testing Business Hypotheses Using Exploratory Data Analysis
- Visualization for Exploratory Data Analysis
- Exercise 3.02: Business Hypothesis Testing for Age versus Propensity for a Term Loan
- Intuitions from the Exploratory Analysis
- Activity 3.01: Business Hypothesis Testing to Find Employment Status versus Propensity for Term Deposits
- Feature Engineering
- Business-Driven Feature Engineering
- Exercise 3.03: Feature Engineering Exploration of Individual Features
- Exercise 3.04: Feature Engineering Creating New Features from Existing Ones
- Data-Driven Feature Engineering
- A Quick Peek at Data Types and a Descriptive Summary
- Correlation Matrix and Visualization
- Exercise 3.05: Finding the Correlation in Data to Generate a Correlation Plot Using Bank Data
- Skewness of Data
- Histograms
- Density Plots
- Other Feature Engineering Methods
- Summarizing Feature Engineering
- Building a Binary Classification Model Using the Logistic Regression Function
- Logistic Regression Demystified
- Metrics for Evaluating Model Performance
- Confusion Matrix
- Accuracy
- Classification Report
- Data Preprocessing
- Exercise 3.06: A Logistic Regression Model for Predicting the Propensity of Term Deposit Purchases in a Bank
- Activity 3.02: Model Iteration 2 Logistic Regression Model with Feature Engineered Variables
- Next Steps
- Summary
- 4. Multiclass Classification with RandomForest
- Introduction
- Training a Random Forest Classifier
- Evaluating the Models Performance
- Exercise 4.01: Building a Model for Classifying Animal Type and Assessing Its Performance
- Number of Trees Estimator
- Exercise 4.02: Tuning n_estimators to Reduce Overfitting
- Maximum Depth
- Exercise 4.03: Tuning max_depth to Reduce Overfitting
- Minimum Sample in Leaf
- Exercise 4.04: Tuning min_samples_leaf
- Maximum Features
- Exercise 4.05: Tuning max_features
- Activity 4.01: Train a Random Forest Classifier on the ISOLET Dataset
- Summary
- 5. Performing Your First Cluster Analysis
- Introduction
- Clustering with k-means
- Exercise 5.01: Performing Your First Clustering Analysis on the ATO Dataset
- Interpreting k-means Results
- Exercise 5.02: Clustering Australian Postcodes by Business Income and Expenses
- Choosing the Number of Clusters
- Exercise 5.03: Finding the Optimal Number of Clusters
- Initializing Clusters
- Exercise 5.04: Using Different Initialization Parameters to Achieve a Suitable Outcome
- Calculating the Distance to the Centroid
- Exercise 5.05: Finding the Closest Centroids in Our Dataset
- Standardizing Data
- Exercise 5.06: Standardizing the Data from Our Dataset
- Activity 5.01: Perform Customer Segmentation Analysis in a Bank Using k-means
- Summary
- 6. How to Assess Performance
- Introduction
- Splitting Data
- Exercise 6.01: Importing and Splitting Data
- Assessing Model Performance for Regression Models
- Data Structures Vectors and Matrices
- Scalars
- Vectors
- Matrices
- Data Structures Vectors and Matrices
- R2 Score
- Exercise 6.02: Computing the R2 Score of a Linear Regression Model
- Mean Absolute Error
- Exercise 6.03: Computing the MAE of a Model
- Exercise 6.04: Computing the Mean Absolute Error of a Second Model
- Other Evaluation Metrics
- Assessing Model Performance for Classification Models
- Exercise 6.05: Creating a Classification Model for Computing Evaluation Metrics
- The Confusion Matrix
- Exercise 6.06: Generating a Confusion Matrix for the Classification Model
- More on the Confusion Matrix
- Precision
- Exercise 6.07: Computing Precision for the Classification Model
- Recall
- Exercise 6.08: Computing Recall for the Classification Model
- F1 Score
- Exercise 6.09: Computing the F1 Score for the Classification Model
- Accuracy
- Exercise 6.10: Computing Model Accuracy for the Classification Model
- Logarithmic Loss
- Exercise 6.11: Computing the Log Loss for the Classification Model
- Receiver Operating Characteristic Curve
- Exercise 6.12: Computing and Plotting ROC Curve for a Binary Classification Problem
- Area Under the ROC Curve
- Exercise 6.13: Computing the ROC AUC for the Caesarian Dataset
- Saving and Loading Models
- Exercise 6.14: Saving and Loading a Model
- Activity 6.01: Train Three Different Models and Use Evaluation Metrics to Pick the Best Performing Model
- Summary
- 7. The Generalization of Machine Learning Models
- Introduction
- Overfitting
- Training on Too Many Features
- Training for Too Long
- Underfitting
- Data
- The Ratio for Dataset Splits
- Creating Dataset Splits
- Exercise 7.01: Importing and Splitting Data
- Random State
- Exercise 7.02: Setting a Random State When Splitting Data
- Cross-Validation
- KFold
- Exercise 7.03: Creating a Five-Fold Cross-Validation Dataset
- Exercise 7.04: Creating a Five-Fold Cross-Validation Dataset Using a Loop for Calls
- cross_val_score
- Exercise 7.05: Getting the Scores from Five-Fold Cross-Validation
- Understanding Estimators That Implement CV
- LogisticRegressionCV
- Exercise 7.06: Training a Logistic Regression Model Using Cross-Validation
- Hyperparameter Tuning with GridSearchCV
- Decision Trees
- Exercise 7.07: Using Grid Search with Cross-Validation to Find the Best Parameters for a Model
- Hyperparameter Tuning with RandomizedSearchCV
- Exercise 7.08: Using Randomized Search for Hyperparameter Tuning
- Model Regularization with Lasso Regression
- Exercise 7.09: Fixing Model Overfitting Using Lasso Regression
- Ridge Regression
- Exercise 7.10: Fixing Model Overfitting Using Ridge Regression
- Activity 7.01: Find an Optimal Model for Predicting the Critical Temperatures of Superconductors
- Summary
- 8. Hyperparameter Tuning
- Introduction
- What Are Hyperparameters?
- Difference between Hyperparameters and Statistical Model Parameters
- Setting Hyperparameters
- A Note on Defaults
- Finding the Best Hyperparameterization
- Exercise 8.01: Manual Hyperparameter Tuning for a k-NN Classifier
- Advantages and Disadvantages of a Manual Search
- Tuning Using Grid Search
- Simple Demonstration of the Grid Search Strategy
- GridSearchCV
- Tuning using GridSearchCV
- Support Vector Machine (SVM) Classifiers
- Tuning using GridSearchCV
- Exercise 8.02: Grid Search Hyperparameter Tuning for an SVM
- Advantages and Disadvantages of Grid Search
- Random Search
- Random Variables and Their Distributions
- Simple Demonstration of the Random Search Process
- Tuning Using RandomizedSearchCV
- Exercise 8.03: Random Search Hyperparameter Tuning for a Random Forest Classifier
- Advantages and Disadvantages of a Random Search
- Activity 8.01: Is the Mushroom Poisonous?
- Summary
- 9. Interpreting a Machine Learning Model
- Introduction
- Linear Model Coefficients
- Exercise 9.01: Extracting the Linear Regression Coefficient
- RandomForest Variable Importance
- Exercise 9.02: Extracting RandomForest Feature Importance
- Variable Importance via Permutation
- Exercise 9.03: Extracting Feature Importance via Permutation
- Partial Dependence Plots
- Exercise 9.04: Plotting Partial Dependence
- Local Interpretation with LIME
- Exercise 9.05: Local Interpretation with LIME
- Activity 9.01: Train and Analyze a Network Intrusion Detection Model
- Summary
- 10. Analyzing a Dataset
- Introduction
- Exploring Your Data
- Analyzing Your Dataset
- Exercise 10.01: Exploring the Ames Housing Dataset with Descriptive Statistics
- Analyzing the Content of a Categorical Variable
- Exercise 10.02: Analyzing the Categorical Variables from the Ames Housing Dataset
- Summarizing Numerical Variables
- Exercise 10.03: Analyzing Numerical Variables from the Ames Housing Dataset
- Visualizing Your Data
- Using the Altair API
- Histogram for Numerical Variables
- Bar Chart for Categorical Variables
- Boxplots
- Exercise 10.04: Visualizing the Ames Housing Dataset with Altair
- Activity 10.01: Analyzing Churn Data Using Visual Data Analysis Techniques
- Summary
- 11. Data Preparation
- Introduction
- Handling Row Duplication
- Exercise 11.01: Handling Duplicates in a Breast Cancer Dataset
- Converting Data Types
- Exercise 11.02: Converting Data Types for the Ames Housing Dataset
- Handling Incorrect Values
- Exercise 11.03: Fixing Incorrect Values in the State Column
- Handling Missing Values
- Exercise 11.04: Fixing Missing Values for the Horse Colic Dataset
- Activity 11.01: Preparing the Speed Dating Dataset
- Summary
- 12. Feature Engineering
- Introduction
- Merging Datasets
- The Left Join
- The Right Join
- Merging Datasets
- Exercise 12.01: Merging the ATO Dataset with the Postcode Data
- Binning Variables
- Exercise 12.02: Binning the YearBuilt Variable from the AMES Housing Dataset
- Manipulating Dates
- Exercise 12.03: Date Manipulation on Financial Services Consumer Complaints
- Performing Data Aggregation
- Exercise 12.04: Feature Engineering Using Data Aggregation on the AMES Housing Dataset
- Activity 12.01: Feature Engineering on a Financial Dataset
- Summary
- Introduction
- 13. Imbalanced Datasets
- Introduction
- Understanding the Business Context
- Exercise 13.01: Benchmarking the Logistic Regression Model on the Dataset
- Analysis of the Result
- Challenges of Imbalanced Datasets
- Strategies for Dealing with Imbalanced Datasets
- Collecting More Data
- Resampling Data
- Exercise 13.02: Implementing Random Undersampling and Classification on Our Banking Dataset to Find the Optimal Result
- Analysis
- Generating Synthetic Samples
- Implementation of SMOTE and MSMOTE
- Exercise 13.03: Implementing SMOTE on Our Banking Dataset to Find the Optimal Result
- Exercise 13.04: Implementing MSMOTE on Our Banking Dataset to Find the Optimal Result
- Applying Balancing Techniques on a Telecom Dataset
- Activity 13.01: Finding the Best Balancing Technique by Fitting a Classifier on the Telecom Churn Dataset
- Summary
- 14. Dimensionality Reduction
- Introduction
- Business Context
- Exercise 14.01: Loading and Cleaning the Dataset
- Introduction
- Creating a High-Dimensional Dataset
- Activity 14.01: Fitting a Logistic Regression Model on a HighDimensional Dataset
- Strategies for Addressing High-Dimensional Datasets
- Backward Feature Elimination (Recursive Feature Elimination)
- Exercise 14.02: Dimensionality Reduction Using Backward Feature Elimination
- Forward Feature Selection
- Exercise 14.03: Dimensionality Reduction Using Forward Feature Selection
- Principal Component Analysis (PCA)
- Exercise 14.04: Dimensionality Reduction Using PCA
- Independent Component Analysis (ICA)
- Exercise 14.05: Dimensionality Reduction Using Independent Component Analysis
- Factor Analysis
- Exercise 14.06: Dimensionality Reduction Using Factor Analysis
- Comparing Different Dimensionality Reduction Techniques
- Activity 14.02: Comparison of Dimensionality Reduction Techniques on the Enhanced Ads Dataset
- Summary
- 15. Ensemble Learning
- Introduction
- Ensemble Learning
- Variance
- Bias
- Business Context
- Exercise 15.01: Loading, Exploring, and Cleaning the Data
- Activity 15.01: Fitting a Logistic Regression Model on Credit Card Data
- Simple Methods for Ensemble Learning
- Averaging
- Exercise 15.02: Ensemble Model Using the Averaging Technique
- Weighted Averaging
- Exercise 15.03: Ensemble Model Using the Weighted Averaging Technique
- Iteration 2 with Different Weights
- Max Voting
- Exercise 15.04: Ensemble Model Using Max Voting
- Advanced Techniques for Ensemble Learning
- Bagging
- Exercise 15.05: Ensemble Learning Using Bagging
- Boosting
- Exercise 15.06: Ensemble Learning Using Boosting
- Stacking
- Exercise 15.07: Ensemble Learning Using Stacking
- Activity 15.02: Comparison of Advanced Ensemble Techniques
- Summary
Packt Publishing - inne książki
-
Save time and effort when building 3D scenes with this essential guide to creating stunning photorealistic 3D environments in Blender
-
Solve classic computer science problems from fundamental algorithms, such as sorting and searching, to modern algorithms in machine learning and cryptography
40 Algorithms Every Programmer Should Know - Second Edition 40 Algorithms Every Programmer Should Know - Second Edition
-
Use modern Python libraries such as pandas, NumPy, and scikit-learn and popular machine learning and deep learning methods to solve financial modeling problems
-
Get up to speed with Oracle's Autonomous Databases and implementation strategies for any workload or use case, including transactional, data warehousing, and non-relational databases
Oracle Autonomous Database in Enterprise Architecture Oracle Autonomous Database in Enterprise Architecture
-
Design, build, and deploy performant and maintainable web applications using Spring, Spring Boot, and Angular
-
Build CD pipelines following GitOps principles like declarative and immutable changes stored in version control, all continuously reconciled by Argo CD, and minimize the failure of deployments.
Dzieki opcji "Druk na żądanie" do sprzedaży wracają tytuły Grupy Helion, które cieszyły sie dużym zainteresowaniem, a których nakład został wyprzedany.
Dla naszych Czytelników wydrukowaliśmy dodatkową pulę egzemplarzy w technice druku cyfrowego.
Co powinieneś wiedzieć o usłudze "Druk na żądanie":
- usługa obejmuje tylko widoczną poniżej listę tytułów, którą na bieżąco aktualizujemy;
- cena książki może być wyższa od początkowej ceny detalicznej, co jest spowodowane kosztami druku cyfrowego (wyższymi niż koszty tradycyjnego druku offsetowego). Obowiązująca cena jest zawsze podawana na stronie WWW książki;
- zawartość książki wraz z dodatkami (płyta CD, DVD) odpowiada jej pierwotnemu wydaniu i jest w pełni komplementarna;
- usługa nie obejmuje książek w kolorze.
W przypadku usługi "Druk na żądanie" termin dostarczenia przesyłki może obejmować także czas potrzebny na dodruk (do 10 dni roboczych)
Masz pytanie o konkretny tytuł? Napisz do nas: sklep[at]helion.pl.
Książka, którą chcesz zamówić pochodzi z końcówki nakładu. Oznacza to, że mogą się pojawić drobne defekty (otarcia, rysy, zagięcia).
Co powinieneś wiedzieć o usłudze "Końcówka nakładu":
- usługa obejmuje tylko książki oznaczone tagiem "Końcówka nakładu";
- wady o których mowa powyżej nie podlegają reklamacji;
Masz pytanie o konkretny tytuł? Napisz do nas: sklep[at]helion.pl.


Oceny i opinie klientów: The Data Science Workshop - Second Edition Anthony So, Thomas V. Joseph, Robert Thas John, Andrew Worsley, Dr. Samuel Asare (0)
Weryfikacja opinii następuję na podstawie historii zamówień na koncie Użytkownika umieszczającego opinię. Użytkownik mógł otrzymać punkty za opublikowanie opinii uprawniające do uzyskania rabatu w ramach Programu Punktowego.