Machine Learning with PyTorch and Scikit-Learn

- Autorzy:
- Sebastian Raschka, Yuxi (Hayden) Liu, Vahid Mirjalili


- Ocena:
- 6.0/6 Opinie: 1
- Stron:
- 770
- Dostępne formaty:
-
PDFePub
Opis książki: Machine Learning with PyTorch and Scikit-Learn
Machine Learning with PyTorch and Scikit-Learn is a comprehensive guide to machine learning and deep learning with PyTorch. It acts as both a step-by-step tutorial and a reference you'll keep coming back to as you build your machine learning systems.
Packed with clear explanations, visualizations, and examples, the book covers all the essential machine learning techniques in depth. While some books teach you only to follow instructions, with this machine learning book, we teach the principles allowing you to build models and applications for yourself.
Why PyTorch?
PyTorch is the Pythonic way to learn machine learning, making it easier to learn and simpler to code with. This book explains the essential parts of PyTorch and how to create models using popular libraries, such as PyTorch Lightning and PyTorch Geometric.
You will also learn about generative adversarial networks (GANs) for generating new data and training intelligent agents with reinforcement learning. Finally, this new edition is expanded to cover the latest trends in deep learning, including graph neural networks and large-scale transformers used for natural language processing (NLP).
This PyTorch book is your companion to machine learning with Python, whether you're a Python developer new to machine learning or want to deepen your knowledge of the latest developments.
Wybrane bestsellery
-
Oto pierwszy tom dzieła, które stanowi inspirujące spojrzenie na sztuczną inteligencję. Jego zrozumienie nie wymaga wybitnej znajomości informatyki i matematyki. Książka jest wspaniałą syntezą wczesnych i późniejszych koncepcji, a także technik, przeprowadzoną we frameworku idei, metod i technolo...
Sztuczna inteligencja. Nowe spojrzenie. Wydanie IV. Tom 1 Sztuczna inteligencja. Nowe spojrzenie. Wydanie IV. Tom 1
(0,00 zł najniższa cena z 30 dni)109.85 zł
169.00 zł(-35%) -
Ten podręcznik jest przeznaczony dla osób, które chcą dobrze zrozumieć matematyczne podstawy uczenia maszynowego i nabrać praktycznego doświadczenia w używaniu pojęć matematycznych. Wyjaśniono tutaj stosowanie szeregu technik matematycznych, takich jak algebra liniowa, geometria analityczna, rozk...(0,00 zł najniższa cena z 30 dni)
83.85 zł
129.00 zł(-35%) -
To drugi tom klasycznego podręcznika wiedzy o sztucznej inteligencji. Podobnie jak w wypadku pierwszej części, lektura tej książki nie wymaga wybitnej znajomości tematu. Dzięki przejrzystości tekstu i umiejętnemu unikaniu nadmiernego formalizmu można w dość łatwy sposób zrozumieć kluczowe idee i ...
Sztuczna inteligencja. Nowe spojrzenie. Wydanie IV. Tom 2 Sztuczna inteligencja. Nowe spojrzenie. Wydanie IV. Tom 2
(0,00 zł najniższa cena z 30 dni)83.85 zł
129.00 zł(-35%) -
To drugie wydanie bestsellerowego przewodnika po technikach uczenia maszynowego. Wystarczą minimalne umiejętności programistyczne, aby dzięki tej książce nauczyć się budowania i trenowania głębokiej sieci neuronowej. Zawarto tu minimum teorii, a proces nauki jest ułatwiony przez liczne przykłady ...
Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow. Wydanie II Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow. Wydanie II
(0,00 zł najniższa cena z 30 dni)83.85 zł
129.00 zł(-35%) -
Ta praktyczna książka ułatwi Ci rozpoczęcie wdrażania rozwiązań rzeczywistych problemów związanych z uczeniem maszynowym. Zawiera przystępne wprowadzenie do uczenia maszynowego i sztucznej inteligencji, a także sposoby wykorzystania Pythona i biblioteki scikit-learn, uwzględniające potrzeby badac...
Machine learning, Python i data science. Wprowadzenie Machine learning, Python i data science. Wprowadzenie
(0,00 zł najniższa cena z 30 dni)44.85 zł
69.00 zł(-35%) -
Ta książka jest nowatorskim podręcznikiem, w którym w zrozumiały, intuicyjny sposób opisano techniki sztucznej inteligencji. Została wzbogacona kolorowymi ilustracjami i zrozumiałym kodem, dzięki czemu pozwala o wiele łatwiej zagłębić się w złożoność modeli głębokiego uczenia. Trudniejsze zagadni...
Uczenie głębokie i sztuczna inteligencja. Interaktywny przewodnik ilustrowany Uczenie głębokie i sztuczna inteligencja. Interaktywny przewodnik ilustrowany
(0,00 zł najniższa cena z 30 dni)64.35 zł
99.00 zł(-35%) -
Niniejsza książka jest praktycznym przewodnikiem po uczeniu głębokim. Znalazły się tu dokładne informacje o istocie uczenia głębokiego, o jego zastosowaniach i ograniczeniach. Wyjaśniono zasady rozwiązywania typowych problemów uczenia maszynowego. Pokazano, jak korzystać z pakietu Keras przy impl...
Deep Learning. Praca z językiem Python i biblioteką Keras Deep Learning. Praca z językiem Python i biblioteką Keras
(0,00 zł najniższa cena z 30 dni)38.35 zł
59.00 zł(-35%) -
Uczenie maszynowe obejmuje techniki wykorzystywane najczęściej w obszarze określanym mianem sztucznej inteligencji — a właśnie ona jest w tej chwili jednym z głównych kierunków rozwoju technologicznego branży IT. Niesamowite jest to, że po odpowiednim przekształceniu wiele problemów praktyc...
Machine Learning i język Python. Kurs video. Praktyczne wykorzystanie popularnych bibliotek Machine Learning i język Python. Kurs video. Praktyczne wykorzystanie popularnych bibliotek
(0,00 zł najniższa cena z 30 dni)89.55 zł
199.00 zł(-55%) -
Dr Yves Hilpisch szczegółowo opisuje zarówno podstawy teoretyczne, jak i praktyczne aspekty używania algorytmów sztucznej inteligencji w ramach usług i produktów finansowych. Opierając się na przykładach z języka Python, pokazuje metodyki, modele, założenia i techniki wdrażania AI, a także analiz...
Sztuczna inteligencja w finansach. Używaj języka Python do projektowania i wdrażania algorytmów AI Sztuczna inteligencja w finansach. Używaj języka Python do projektowania i wdrażania algorytmów AI
(0,00 zł najniższa cena z 30 dni)64.35 zł
99.00 zł(-35%) -
Ta książka jest przystępnym przewodnikiem po uczeniu maszynowym. Aby zrozumieć zawartą w niej treść, wystarczy podstawowa umiejętność programowania i znajomość matematyki na poziomie szkoły średniej. Znalazło się tu omówienie podstawowych pojęć i wyjaśnienie mechanizmów rządzących uczeniem głębok...
Deep Learning. Praktyczne wprowadzenie z zastosowaniem środowiska Pythona Deep Learning. Praktyczne wprowadzenie z zastosowaniem środowiska Pythona
(0,00 zł najniższa cena z 30 dni)64.35 zł
99.00 zł(-35%)
O autorach książki
3 Sebastian Raschka, Yuxi (Hayden) Liu, Vahid MirjaliliSebastian Raschka jest ekspertem w dziedzinie analizy danych i uczenia maszynowego. Obecnie przygotowuje doktorat na Michigan State University z metod obliczeniowych w biologii statystycznej. Biegle posługuje się Pythonem. Raschka bierze również udział w różnych projektach open source i wdraża nowe metody uczenia maszynowego. W wolnym czasie pracuje nad modelami predykcyjnymi dyscyplin sportowych. Jeżeli nie siedzi przed monitorem, chętnie uprawia sport.
Yuxi (Hayden) Liu rozwija modele uczenia maszynowego w Google. Wcześniej pracował naukowo nad zastosowaniami uczenia maszynowego w takich dziedzinach jak reklama internetowa i cyberbezpieczeństwo. Jest entuzjastą edukacji i autorem wielu książek o uczeniu maszynowym. Pierwsze wydanie tego podręcznika zajmowało wiodącą pozycję w rankingu Amazona w latach 2017 i 2018.
Dr Vahid Mirjalili zajmuje się stosowaniem uczenia maszynowego w rozpoznawaniu obrazów i zwiększaniu prywatności przy użyciu danych biometrycznych. Projektuje też modele sieci neuronowych, które mają ułatwiać wykrywanie pieszych przez pojazdy autonomiczne.
Sebastian Raschka, Yuxi (Hayden) Liu, Vahid Mirjalili - pozostałe książki
-
To trzecie wydanie popularnego podręcznika, który ułatwi Ci zdobycie praktycznej wiedzy o uczeniu maszynowym w Pythonie. Zapoznasz się z różnymi technikami implementacji algorytmów uczenia maszynowego. Przeanalizujesz rzeczywiste przykłady techniki eksploracyjnej analizy danych, inżynierii cech, ...
Python. Uczenie maszynowe w przykładach. TensorFlow 2, PyTorch i scikit-learn. Wydanie III Python. Uczenie maszynowe w przykładach. TensorFlow 2, PyTorch i scikit-learn. Wydanie III
(59.40 zł najniższa cena z 30 dni)64.35 zł
99.00 zł(-35%) -
Oto obszerny przewodnik po uczeniu maszynowym i uczeniu głębokim w Pythonie. Zawiera dokładne omówienie najważniejszych technik uczenia maszynowego oraz staranne wyjaśnienie zasad rządzących tą technologią. Poszczególne zagadnienia zilustrowano mnóstwem wyjaśnień, wizualizacji i przykładów, co zn...
Python. Machine learning i deep learning. Biblioteki scikit-learn i TensorFlow 2. Wydanie III Python. Machine learning i deep learning. Biblioteki scikit-learn i TensorFlow 2. Wydanie III
-
A comprehensive guide to get you up to speed with the latest developments of practical machine learning with Python and upgrade your understanding of machine learning (ML) algorithms and techniques
Python Machine Learning By Example - Third Edition Python Machine Learning By Example - Third Edition
-
Applied machine learning with a solid foundation in theory. Revised and expanded for TensorFlow 2, GANs, and reinforcement learning.
-
Implement reinforcement learning techniques and algorithms with the help of real-world examples and recipes
-
Explore the world of neural networks by building powerful deep learning models using the R ecosystem
Deep Learning with R for Beginners Deep Learning with R for Beginners
Mark Hodnett, Joshua F. Wiley, Yuxi (Hayden) Liu, Pablo Maldonado
-
Concepts, tools, and techniques to explore deep learning architectures and methodologies
-
Ta książka jest drugim, wzbogaconym i zaktualizowanym wydaniem znakomitego podręcznika do nauki o danych. Wyczerpująco opisano tu teoretyczne podwaliny uczenia maszynowego. Sporo uwagi poświęcono działaniu algorytmów uczenia głębokiego, sposobom ich wykorzystania oraz metodom unikania istotnych b...(59.40 zł najniższa cena z 30 dni)
64.35 zł
99.00 zł(-35%) -
Grasp machine learning concepts, techniques, and algorithms with the help of real-world examples using Python libraries such as TensorFlow and scikit-learn
Python Machine Learning By Example - Second Edition Python Machine Learning By Example - Second Edition
-
5 real-world projects to help you master deep learning conceptsAbout This BookMaster the different deep learning paradigms and build real-world projects related to text generation, sentiment analysis, fraud detection, and moreGet to grips with R's impressive range of Deep Learning libraries and f...
Ebooka przeczytasz na:
-
czytnikach Inkbook, Kindle, Pocketbook i innych
-
systemach Windows, MacOS i innych
-
systemach Windows, Android, iOS, HarmonyOS
-
na dowolnych urządzeniach i aplikacjach obsługujących formaty: PDF, EPub, Mobi
Masz pytania? Zajrzyj do zakładki Pomoc »
Audiobooka posłuchasz:
-
w aplikacji Ebookpoint na Android, iOS, HarmonyOs
-
na systemach Windows, MacOS i innych
-
na dowolonych urządzeniach i aplikacjach obsługujących format MP3 (pliki spakowane w ZIP)
Masz pytania? Zajrzyj do zakładki Pomoc »
Kurs Video zobaczysz:
-
w aplikacji Ebookpoint na Android, iOS, HarmonyOs
-
na systemach Windows, MacOS i innych
-
na dowolonych urządzeniach i aplikacjach obsługujących format MP4 (pliki spakowane w ZIP)
Szczegóły książki
- Tytuł oryginału:
- Machine Learning with PyTorch and Scikit-Learn
- ISBN Ebooka:
- 978-18-018-1638-0, 9781801816380
- Data wydania ebooka:
-
2022-02-25
Data wydania ebooka często jest dniem wprowadzenia tytułu do sprzedaży i może nie być równoznaczna z datą wydania książki papierowej. Dodatkowe informacje możesz znaleźć w darmowym fragmencie. Jeśli masz wątpliwości skontaktuj się z nami sklep@helion.pl.
- Język publikacji:
- angielski
- Rozmiar pliku Pdf:
- 29.3MB
- Rozmiar pliku ePub:
- 60.6MB
- Kategorie:
Uczenie maszynowe
Spis treści książki
- Preface
- Who this book is for
- What this book covers
- To get the most out of this book
- Get in touch
- Share your thoughts
- Giving Computers the Ability to Learn from Data
- Building intelligent machines to transform data into knowledge
- The three different types of machine learning
- Making predictions about the future with supervised learning
- Classification for predicting class labels
- Regression for predicting continuous outcomes
- Making predictions about the future with supervised learning
- Solving interactive problems with reinforcement learning
- Discovering hidden structures with unsupervised learning
- Finding subgroups with clustering
- Dimensionality reduction for data compression
- Introduction to the basic terminology and notations
- Notation and conventions used in this book
- Machine learning terminology
- A roadmap for building machine learning systems
- Preprocessing getting data into shape
- Training and selecting a predictive model
- Evaluating models and predicting unseen data instances
- Using Python for machine learning
- Installing Python and packages from the Python Package Index
- Using the Anaconda Python distribution and package manager
- Packages for scientific computing, data science, and machine learning
- Summary
- Training Simple Machine Learning Algorithms for Classification
- Artificial neurons a brief glimpse into the early history of machine learning
- The formal definition of an artificial neuron
- The perceptron learning rule
- Artificial neurons a brief glimpse into the early history of machine learning
- Implementing a perceptron learning algorithm in Python
- An object-oriented perceptron API
- Training a perceptron model on the Iris dataset
- Adaptive linear neurons and the convergence of learning
- Minimizing loss functions with gradient descent
- Implementing Adaline in Python
- Improving gradient descent through feature scaling
- Large-scale machine learning and stochastic gradient descent
- Summary
- A Tour of Machine Learning Classifiers Using Scikit-Learn
- Choosing a classification algorithm
- First steps with scikit-learn training a perceptron
- Modeling class probabilities via logistic regression
- Logistic regression and conditional probabilities
- Learning the model weights via the logistic loss function
- Converting an Adaline implementation into an algorithm for logistic regression
- Training a logistic regression model with scikit-learn
- Tackling overfitting via regularization
- Maximum margin classification with support vector machines
- Maximum margin intuition
- Dealing with a nonlinearly separable case using slack variables
- Alternative implementations in scikit-learn
- Solving nonlinear problems using a kernel SVM
- Kernel methods for linearly inseparable data
- Using the kernel trick to find separating hyperplanes in a high-dimensional space
- Decision tree learning
- Maximizing IG getting the most bang for your buck
- Building a decision tree
- Combining multiple decision trees via random forests
- K-nearest neighbors a lazy learning algorithm
- Summary
- Building Good Training Datasets Data Preprocessing
- Dealing with missing data
- Identifying missing values in tabular data
- Eliminating training examples or features with missing values
- Imputing missing values
- Understanding the scikit-learn estimator API
- Dealing with missing data
- Handling categorical data
- Categorical data encoding with pandas
- Mapping ordinal features
- Encoding class labels
- Performing one-hot encoding on nominal features
- Optional: encoding ordinal features
- Partitioning a dataset into separate training and test datasets
- Bringing features onto the same scale
- Selecting meaningful features
- L1 and L2 regularization as penalties against model complexity
- A geometric interpretation of L2 regularization
- Sparse solutions with L1 regularization
- Sequential feature selection algorithms
- Assessing feature importance with random forests
- Summary
- Compressing Data via Dimensionality Reduction
- Unsupervised dimensionality reduction via principal component analysis
- The main steps in principal component analysis
- Extracting the principal components step by step
- Total and explained variance
- Feature transformation
- Principal component analysis in scikit-learn
- Assessing feature contributions
- Unsupervised dimensionality reduction via principal component analysis
- Supervised data compression via linear discriminant analysis
- Principal component analysis versus linear discriminant analysis
- The inner workings of linear discriminant analysis
- Computing the scatter matrices
- Selecting linear discriminants for the new feature subspace
- Projecting examples onto the new feature space
- LDA via scikit-learn
- Nonlinear dimensionality reduction and visualization
- Why consider nonlinear dimensionality reduction?
- Visualizing data via t-distributed stochastic neighbor embedding
- Summary
- Learning Best Practices for Model Evaluation and Hyperparameter Tuning
- Streamlining workflows with pipelines
- Loading the Breast Cancer Wisconsin dataset
- Combining transformers and estimators in a pipeline
- Streamlining workflows with pipelines
- Using k-fold cross-validation to assess model performance
- The holdout method
- K-fold cross-validation
- Debugging algorithms with learning and validation curves
- Diagnosing bias and variance problems with learning curves
- Addressing over- and underfitting with validation curves
- Fine-tuning machine learning models via grid search
- Tuning hyperparameters via grid search
- Exploring hyperparameter configurations more widely with randomized search
- More resource-efficient hyperparameter search with successive halving
- Algorithm selection with nested cross-validation
- Looking at different performance evaluation metrics
- Reading a confusion matrix
- Optimizing the precision and recall of a classification model
- Plotting a receiver operating characteristic
- Scoring metrics for multiclass classification
- Dealing with class imbalance
- Summary
- Combining Different Models for Ensemble Learning
- Learning with ensembles
- Combining classifiers via majority vote
- Implementing a simple majority vote classifier
- Using the majority voting principle to make predictions
- Evaluating and tuning the ensemble classifier
- Bagging building an ensemble of classifiers from bootstrap samples
- Bagging in a nutshell
- Applying bagging to classify examples in the Wine dataset
- Leveraging weak learners via adaptive boosting
- How adaptive boosting works
- Applying AdaBoost using scikit-learn
- Gradient boosting training an ensemble based on loss gradients
- Comparing AdaBoost with gradient boosting
- Outlining the general gradient boosting algorithm
- Explaining the gradient boosting algorithm for classification
- Illustrating gradient boosting for classification
- Using XGBoost
- Summary
- Applying Machine Learning to Sentiment Analysis
- Preparing the IMDb movie review data for text processing
- Obtaining the movie review dataset
- Preprocessing the movie dataset into a more convenient format
- Preparing the IMDb movie review data for text processing
- Introducing the bag-of-words model
- Transforming words into feature vectors
- Assessing word relevancy via term frequency-inverse document frequency
- Cleaning text data
- Processing documents into tokens
- Training a logistic regression model for document classification
- Working with bigger data online algorithms and out-of-core learning
- Topic modeling with latent Dirichlet allocation
- Decomposing text documents with LDA
- LDA with scikit-learn
- Summary
- Predicting Continuous Target Variables with Regression Analysis
- Introducing linear regression
- Simple linear regression
- Multiple linear regression
- Introducing linear regression
- Exploring the Ames Housing dataset
- Loading the Ames Housing dataset into a DataFrame
- Visualizing the important characteristics of a dataset
- Looking at relationships using a correlation matrix
- Implementing an ordinary least squares linear regression model
- Solving regression for regression parameters with gradient descent
- Estimating the coefficient of a regression model via scikit-learn
- Fitting a robust regression model using RANSAC
- Evaluating the performance of linear regression models
- Using regularized methods for regression
- Turning a linear regression model into a curve polynomial regression
- Adding polynomial terms using scikit-learn
- Modeling nonlinear relationships in the Ames Housing dataset
- Dealing with nonlinear relationships using random forests
- Decision tree regression
- Random forest regression
- Summary
- Working with Unlabeled Data Clustering Analysis
- Grouping objects by similarity using k-means
- k-means clustering using scikit-learn
- A smarter way of placing the initial cluster centroids using k-means++
- Hard versus soft clustering
- Using the elbow method to find the optimal number of clusters
- Quantifying the quality of clustering via silhouette plots
- Grouping objects by similarity using k-means
- Organizing clusters as a hierarchical tree
- Grouping clusters in a bottom-up fashion
- Performing hierarchical clustering on a distance matrix
- Attaching dendrograms to a heat map
- Applying agglomerative clustering via scikit-learn
- Locating regions of high density via DBSCAN
- Summary
- Implementing a Multilayer Artificial Neural Network from Scratch
- Modeling complex functions with artificial neural networks
- Single-layer neural network recap
- Introducing the multilayer neural network architecture
- Activating a neural network via forward propagation
- Modeling complex functions with artificial neural networks
- Classifying handwritten digits
- Obtaining and preparing the MNIST dataset
- Implementing a multilayer perceptron
- Coding the neural network training loop
- Evaluating the neural network performance
- Training an artificial neural network
- Computing the loss function
- Developing your understanding of backpropagation
- Training neural networks via backpropagation
- About convergence in neural networks
- A few last words about the neural network implementation
- Summary
- Parallelizing Neural Network Training with PyTorch
- PyTorch and training performance
- Performance challenges
- What is PyTorch?
- How we will learn PyTorch
- PyTorch and training performance
- First steps with PyTorch
- Installing PyTorch
- Creating tensors in PyTorch
- Manipulating the data type and shape of a tensor
- Applying mathematical operations to tensors
- Split, stack, and concatenate tensors
- Building input pipelines in PyTorch
- Creating a PyTorch DataLoader from existing tensors
- Combining two tensors into a joint dataset
- Shuffle, batch, and repeat
- Creating a dataset from files on your local storage disk
- Fetching available datasets from the torchvision.datasets library
- Building an NN model in PyTorch
- The PyTorch neural network module (torch.nn)
- Building a linear regression model
- Model training via the torch.nn and torch.optim modules
- Building a multilayer perceptron for classifying flowers in the Iris dataset
- Evaluating the trained model on the test dataset
- Saving and reloading the trained model
- Choosing activation functions for multilayer neural networks
- Logistic function recap
- Estimating class probabilities in multiclass classification via the softmax function
- Broadening the output spectrum using a hyperbolic tangent
- Rectified linear unit activation
- Summary
- Going Deeper The Mechanics of PyTorch
- The key features of PyTorch
- PyTorchs computation graphs
- Understanding computation graphs
- Creating a graph in PyTorch
- PyTorch tensor objects for storing and updating model parameters
- Computing gradients via automatic differentiation
- Computing the gradients of the loss with respect to trainable variables
- Understanding automatic differentiation
- Adversarial examples
- Simplifying implementations of common architectures via the torch.nn module
- Implementing models based on nn.Sequential
- Choosing a loss function
- Solving an XOR classification problem
- Making model building more flexible with nn.Module
- Writing custom layers in PyTorch
- Project one predicting the fuel efficiency of a car
- Working with feature columns
- Training a DNN regression model
- Project two classifying MNIST handwritten digits
- Higher-level PyTorch APIs: a short introduction to PyTorch-Lightning
- Setting up the PyTorch Lightning model
- Setting up the data loaders for Lightning
- Training the model using the PyTorch Lightning Trainer class
- Evaluating the model using TensorBoard
- Summary
- Classifying Images with Deep Convolutional Neural Networks
- The building blocks of CNNs
- Understanding CNNs and feature hierarchies
- Performing discrete convolutions
- Discrete convolutions in one dimension
- Padding inputs to control the size of the output feature maps
- Determining the size of the convolution output
- Performing a discrete convolution in 2D
- Subsampling layers
- The building blocks of CNNs
- Putting everything together implementing a CNN
- Working with multiple input or color channels
- Regularizing an NN with L2 regularization and dropout
- Loss functions for classification
- Implementing a deep CNN using PyTorch
- The multilayer CNN architecture
- Loading and preprocessing the data
- Implementing a CNN using the torch.nn module
- Configuring CNN layers in PyTorch
- Constructing a CNN in PyTorch
- Smile classification from face images using a CNN
- Loading the CelebA dataset
- Image transformation and data augmentation
- Training a CNN smile classifier
- Summary
- Modeling Sequential Data Using Recurrent Neural Networks
- Introducing sequential data
- Modeling sequential data order matters
- Sequential data versus time series data
- Representing sequences
- The different categories of sequence modeling
- Introducing sequential data
- RNNs for modeling sequences
- Understanding the dataflow in RNNs
- Computing activations in an RNN
- Hidden recurrence versus output recurrence
- The challenges of learning long-range interactions
- Long short-term memory cells
- Implementing RNNs for sequence modeling in PyTorch
- Project one predicting the sentiment of IMDb movie reviews
- Preparing the movie review data
- Embedding layers for sentence encoding
- Building an RNN model
- Building an RNN model for the sentiment analysis task
- Project one predicting the sentiment of IMDb movie reviews
- Project two character-level language modeling in PyTorch
- Preprocessing the dataset
- Building a character-level RNN model
- Evaluation phase generating new text passages
- Summary
- Transformers Improving Natural Language Processing with Attention Mechanisms
- Adding an attention mechanism to RNNs
- Attention helps RNNs with accessing information
- The original attention mechanism for RNNs
- Processing the inputs using a bidirectional RNN
- Generating outputs from context vectors
- Computing the attention weights
- Adding an attention mechanism to RNNs
- Introducing the self-attention mechanism
- Starting with a basic form of self-attention
- Parameterizing the self-attention mechanism: scaled dot-product attention
- Attention is all we need: introducing the original transformer architecture
- Encoding context embeddings via multi-head attention
- Learning a language model: decoder and masked multi-head attention
- Implementation details: positional encodings and layer normalization
- Building large-scale language models by leveraging unlabeled data
- Pre-training and fine-tuning transformer models
- Leveraging unlabeled data with GPT
- Using GPT-2 to generate new text
- Bidirectional pre-training with BERT
- The best of both worlds: BART
- Fine-tuning a BERT model in PyTorch
- Loading the IMDb movie review dataset
- Tokenizing the dataset
- Loading and fine-tuning a pre-trained BERT model
- Fine-tuning a transformer more conveniently using the Trainer API
- Summary
- Generative Adversarial Networks for Synthesizing New Data
- Introducing generative adversarial networks
- Starting with autoencoders
- Generative models for synthesizing new data
- Generating new samples with GANs
- Understanding the loss functions of the generator and discriminator networks in a GAN model
- Introducing generative adversarial networks
- Implementing a GAN from scratch
- Training GAN models on Google Colab
- Implementing the generator and the discriminator networks
- Defining the training dataset
- Training the GAN model
- Improving the quality of synthesized images using a convolutional and Wasserstein GAN
- Transposed convolution
- Batch normalization
- Implementing the generator and discriminator
- Dissimilarity measures between two distributions
- Using EM distance in practice for GANs
- Gradient penalty
- Implementing WGAN-GP to train the DCGAN model
- Mode collapse
- Other GAN applications
- Summary
- Graph Neural Networks for Capturing Dependencies in Graph Structured Data
- Introduction to graph data
- Undirected graphs
- Directed graphs
- Labeled graphs
- Representing molecules as graphs
- Introduction to graph data
- Understanding graph convolutions
- The motivation behind using graph convolutions
- Implementing a basic graph convolution
- Implementing a GNN in PyTorch from scratch
- Defining the NodeNetwork model
- Coding the NodeNetworks graph convolution layer
- Adding a global pooling layer to deal with varying graph sizes
- Preparing the DataLoader
- Using the NodeNetwork to make predictions
- Implementing a GNN using the PyTorch Geometric library
- Other GNN layers and recent developments
- Spectral graph convolutions
- Pooling
- Normalization
- Pointers to advanced graph neural network literature
- Summary
- Reinforcement Learning for Decision Making in Complex Environments
- Introduction learning from experience
- Understanding reinforcement learning
- Defining the agent-environment interface of a reinforcement learning system
- Introduction learning from experience
- The theoretical foundations of RL
- Markov decision processes
- The mathematical formulation of Markov decision processes
- Visualization of a Markov process
- Markov decision processes
- Episodic versus continuing tasks
- RL terminology: return, policy, and value function
- The return
- Policy
- Value function
- Dynamic programming using the Bellman equation
- Reinforcement learning algorithms
- Dynamic programming
- Policy evaluation predicting the value function with dynamic programming
- Improving the policy using the estimated value function
- Policy iteration
- Value iteration
- Dynamic programming
- Reinforcement learning with Monte Carlo
- State-value function estimation using MC
- Action-value function estimation using MC
- Finding an optimal policy using MC control
- Policy improvement computing the greedy policy from the action-value function
- Temporal difference learning
- TD prediction
- On-policy TD control (SARSA)
- Off-policy TD control (Q-learning)
- Implementing our first RL algorithm
- Introducing the OpenAI Gym toolkit
- Working with the existing environments in OpenAI Gym
- A grid world example
- Implementing the grid world environment in OpenAI Gym
- Introducing the OpenAI Gym toolkit
- Solving the grid world problem with Q-learning
- A glance at deep Q-learning
- Training a DQN model according to the Q-learning algorithm
- Replay memory
- Determining the target values for computing the loss
- Training a DQN model according to the Q-learning algorithm
- Implementing a deep Q-learning algorithm
- Chapter and book summary
- Other Books You May Enjoy
- Index
Packt Publishing - inne książki
-
Save time and effort when building 3D scenes with this essential guide to creating stunning photorealistic 3D environments in Blender
-
Solve classic computer science problems from fundamental algorithms, such as sorting and searching, to modern algorithms in machine learning and cryptography
40 Algorithms Every Programmer Should Know - Second Edition 40 Algorithms Every Programmer Should Know - Second Edition
-
Use modern Python libraries such as pandas, NumPy, and scikit-learn and popular machine learning and deep learning methods to solve financial modeling problems
-
Get up to speed with Oracle's Autonomous Databases and implementation strategies for any workload or use case, including transactional, data warehousing, and non-relational databases
Oracle Autonomous Database in Enterprise Architecture Oracle Autonomous Database in Enterprise Architecture
-
Design, build, and deploy performant and maintainable web applications using Spring, Spring Boot, and Angular
-
Build CD pipelines following GitOps principles like declarative and immutable changes stored in version control, all continuously reconciled by Argo CD, and minimize the failure of deployments.
Dzieki opcji "Druk na żądanie" do sprzedaży wracają tytuły Grupy Helion, które cieszyły sie dużym zainteresowaniem, a których nakład został wyprzedany.
Dla naszych Czytelników wydrukowaliśmy dodatkową pulę egzemplarzy w technice druku cyfrowego.
Co powinieneś wiedzieć o usłudze "Druk na żądanie":
- usługa obejmuje tylko widoczną poniżej listę tytułów, którą na bieżąco aktualizujemy;
- cena książki może być wyższa od początkowej ceny detalicznej, co jest spowodowane kosztami druku cyfrowego (wyższymi niż koszty tradycyjnego druku offsetowego). Obowiązująca cena jest zawsze podawana na stronie WWW książki;
- zawartość książki wraz z dodatkami (płyta CD, DVD) odpowiada jej pierwotnemu wydaniu i jest w pełni komplementarna;
- usługa nie obejmuje książek w kolorze.
W przypadku usługi "Druk na żądanie" termin dostarczenia przesyłki może obejmować także czas potrzebny na dodruk (do 10 dni roboczych)
Masz pytanie o konkretny tytuł? Napisz do nas: sklep[at]helion.pl.
Książka, którą chcesz zamówić pochodzi z końcówki nakładu. Oznacza to, że mogą się pojawić drobne defekty (otarcia, rysy, zagięcia).
Co powinieneś wiedzieć o usłudze "Końcówka nakładu":
- usługa obejmuje tylko książki oznaczone tagiem "Końcówka nakładu";
- wady o których mowa powyżej nie podlegają reklamacji;
Masz pytanie o konkretny tytuł? Napisz do nas: sklep[at]helion.pl.


Oceny i opinie klientów: Machine Learning with PyTorch and Scikit-Learn Sebastian Raschka, Yuxi (Hayden) Liu, Vahid Mirjalili (1)
Weryfikacja opinii następuję na podstawie historii zamówień na koncie Użytkownika umieszczającego opinię. Użytkownik mógł otrzymać punkty za opublikowanie opinii uprawniające do uzyskania rabatu w ramach Programu Punktowego.
(1)
(0)
(0)
(0)
(0)
(0)
Wojciech,
Data dodania: 2022-11-13 Ocena: 6 Opinia niepotwierdzona zakupem