ODBIERZ TWÓJ BONUS :: »

Inżynieria dużych modeli językowych. Podręcznik projektowania, trenowania i wdrażania LLM Paul Iusztin, Maxime Labonne, Julien Chaumond (Foreword), Hamza Tahir (Foreword)

(ebook) (audiobook) (audiobook)
Autorzy:
Paul Iusztin, Maxime Labonne, Julien Chaumond (Foreword), Hamza Tahir (Foreword)
Wydawnictwo:
Helion
Wydawnictwo:
Helion
Ocena:
5.0/6  Opinie: 1
Stron:
440
Druk:
oprawa miękka
Dostępne formaty:
     PDF
     ePub
     Mobi
Czytaj fragment
Książka
77,35 zł 119,00 zł (-35%)
71,40 zł najniższa cena z 30 dni

Dodaj do koszyka Wysyłamy w 24h

Ebook
65,45 zł 119,00 zł (-45%)
59,50 zł najniższa cena z 30 dni

Dodaj do koszyka lub Kup na prezent Kup 1-kliknięciem

Przenieś na półkę

Do przechowalni

Do przechowalni

Powiadom o dostępności audiobooka »

Czego się nauczysz?

  • Projektowania architektury systemów opartych na dużych modelach językowych (LLM)
  • Tworzenia potoków uczenia maszynowego z wykorzystaniem cech, trenowania i wnioskowania
  • Wykorzystywania narzędzi MLOps i LLMOps do zarządzania cyklem życia modeli
  • Konfigurowania środowiska projektowego z użyciem ekosystemu Pythona i narzędzi takich jak Poetry, ZenML, Comet i Hugging Face
  • Przechowywania i zarządzania danymi niestrukturyzowanymi oraz wektorowymi w bazach MongoDB i Qdrant
  • Implementowania potoków pobierania i przetwarzania danych do trenowania LLM
  • Budowania i wdrażania potoków opartych na technice Retrieval-Augmented Generation (RAG)
  • Tworzenia i przygotowywania wysokiej jakości zbiorów danych instrukcji do nadzorowanego dostrajania modeli
  • Stosowania technik Parameter-Efficient Fine-Tuning (PEFT) i trenowania parametrów modeli
  • Uwzględniania preferencji użytkowników poprzez uczenie przez wzmocnienie i bezpośrednią optymalizację preferencji
  • Oceniania jakości dużych modeli językowych oraz systemów RAG z wykorzystaniem narzędzi takich jak Ragas i ARES
  • Optymalizowania wnioskowania modeli poprzez strategie takie jak bufor KV, dekodowanie spekulatywne, kwantyzacja i równoległość
  • Implementowania zaawansowanych technik optymalizacji potoku RAG na etapach przed, w trakcie i po pobieraniu danych
  • Wdrażania potoków wnioskowania w różnych architekturach (monolitycznych i mikrousług) oraz na platformie AWS SageMaker
  • Automatycznego skalowania usług LLM w celu obsługi zmiennych obciążeń i zapewnienia wysokiej dostępności
  • Budowania i monitorowania potoków CI/CD oraz workflow DevOps/MLOps/LLMOps dla projektów opartych na LLM

Wraz ze wzrostem popularności dużych modeli językowych rośnie zapotrzebowanie na specjalistów, którzy potrafią je skutecznie wdrażać w rzeczywistych rozwiązaniach. Inżynieria LLM to szeroki zestaw zadań, wymagający unikalnego połączenia wiedzy z wielu dziedzin. Szczególnie istotne okazuje się tu podejście MLOps, które znacząco zwiększa szanse na sukces w projektach opartych na modelach językowych.

Ten obszerny przewodnik pokaże Ci, jak stosować najlepsze praktyki w pracy z LLM. Znajdziesz tu omówienie kluczowych koncepcji, praktyczne techniki i porady ekspertów z zakresu inżynierii danych, dostrajania i oceny modeli, optymalizacji wnioskowania, a także budowania skalowalnych potoków przetwarzania. Krok po kroku prześledzisz, jak zrealizować konkretny produkt, integrując różne aspekty inżynierii LLM i metodologię MLOps. Dowiesz się, jak zbierać i przygotowywać dane, dostrajać modele do specyficznych zastosowań, zwiększać ich wydajność i wdrażać rozwiązania oparte na technice RAG.

Najciekawsze zagadnienia:

  • niezawodne potoki danych i zarządzanie cyklem trenowania modeli LLM
  • tworzenie i udoskonalanie modeli językowych w praktyce
  • podejście MLOps - koordynacja komponentów i monitorowanie promptów
  • nadzorowane dostrajanie i ewaluacja modeli
  • wykorzystanie narzędzi chmurowych (na przykład AWS) w skalowalnych wdrożeniach
  • praktyczne zastosowanie techniki retrieval-augmented generation (RAG)

Działa? To za mało. Musi działać dobrze!

Wybrane bestsellery

O autorach książki

Paul Iusztin pełni funkcję starszego inżyniera uczenia maszynowego w firmie Metaphysic. Jest założycielem kanału edukacyjnego Decoding ML, poświęconego tworzeniu systemów uczenia maszynowego.

Dr Maxime Labonne kieruje zespołem Post-Training w Liquid AI. Jest uznanym ekspertem Google w dziedzinie sztucznej inteligencji. Organizuje kursy dotyczące dużych modeli językowych i pracuje nad modelami takimi jak NeuralDaredevil.

Zobacz pozostałe książki z serii

Helion - inne książki

Najczęściej zadawane pytania (FAQ)
1. Czy książka zawiera praktyczne przykłady wdrażania dużych modeli językowych?
Tak, książka prezentuje konkretne przykłady projektowania, trenowania i wdrażania dużych modeli językowych (LLM) w rzeczywistych zastosowaniach, w tym szczegółowe omówienia pracy z techniką RAG, narzędziami chmurowymi oraz implementacją potoków MLOps.
2. Jakie narzędzia i technologie są omawiane w książce?
Autorzy opisują m.in. ekosystem Pythona, narzędzia takie jak Hugging Face, ZenML, Comet, Poe the Poet, bazy danych MongoDB i Qdrant, a także wykorzystanie usług chmurowych, głównie AWS SageMaker.
3. Czy książka nadaje się do samodzielnej nauki inżynierii LLM?
Tak, podręcznik prowadzi czytelnika krok po kroku przez cały proces -- od przygotowania danych, przez trenowanie i dostrajanie modeli, po wdrożenie i optymalizację rozwiązań, dzięki czemu umożliwia samodzielną naukę.
4. Czy znajdę w książce informacje na temat optymalizacji i skalowania modeli językowych?
Tak, w książce szczegółowo omówiono strategie optymalizacji wnioskowania, techniki kwantyzacji, równoległość modeli oraz metody automatycznego skalowania wdrożonych usług LLM.
5. Czy książka zawiera wskazówki dotyczące wdrażania modeli w chmurze?
Tak, autorzy opisują praktyczne aspekty wdrażania modeli językowych w środowiskach chmurowych, ze szczególnym uwzględnieniem AWS i automatyzacji procesów MLOps/LLMOps.
6. W jaki sposób książka pomaga w ocenie jakości dużych modeli językowych?
Książka zawiera rozdziały poświęcone ocenie modeli LLM, zarówno ogólnego przeznaczenia, jak i specjalistycznych, oraz opisuje narzędzia i metody służące do ewaluacji, takie jak Ragas czy ARES.
7. Czy książka obejmuje tematykę dostrajania modeli do specyficznych zastosowań?
Tak, znajdziesz tu szczegółowe opisy tworzenia i przygotowania własnych zbiorów danych instrukcji oraz technik nadzorowanego i preferencyjnego dostrajania modeli.
8. W jakim formacie dostępna jest książka na Helion.pl?
Książka dostępna jest w wersji drukowanej oraz w formatach elektronicznych (e-book: PDF, ePub, mobi), co umożliwia wygodne czytanie na różnych urządzeniach.

Zamknij

Przenieś na półkę
Dodano produkt na półkę
Usunięto produkt z półki
Przeniesiono produkt do archiwum
Przeniesiono produkt do biblioteki
Proszę czekać...
ajax-loader

Zamknij

Wybierz metodę płatności

Książka
77,35 zł
Dodaj do koszyka
Ebook
65,45 zł
Dodaj do koszyka
Zamknij Pobierz aplikację mobilną Ebookpoint