Uczenie maszynowe w Pythonie. Receptury
- Autor:
- Chris Albon
- Promocja Przejdź
- Wydawnictwo:
- Helion
- Ocena:
- 6.0/6 Opinie: 2
- Stron:
- 344
- Druk:
- oprawa miękka
- Dostępne formaty:
-
PDFePubMobi
Opis książki: Uczenie maszynowe w Pythonie. Receptury
Uczenie maszynowe jest dziś wykorzystywane w różnych dziedzinach życia: w biznesie, w polityce, w organizacjach non profit i oczywiście w nauce. Samouczące się algorytmy maszynowe stanowią wyjątkową metodę przekształcania danych w wiedzę. Powstało sporo książek wyjaśniających sposób działania tych algorytmów i prezentujących nieraz spektakularne przykłady ich wykorzystania. Do dyspozycji pozostają też narzędzia przeznaczone do tego rodzaju zastosowań, takie jak biblioteki Pythona, w tym pandas i scikit-learn. Problemem pozostaje implementacja rozwiązań codziennych problemów związanych z uczeniem maszynowym.
Z tej książki najwięcej skorzystają profesjonaliści, którzy znają podstawowe koncepcje związane z uczeniem maszynowym. Osoby te potraktują ją jako przewodnik ułatwiający rozwiązywanie konkretnych problemów napotykanych podczas codziennej pracy z uczeniem maszynowym. Dzięki zawartym tu recepturom takie zadania jak wczytywanie danych, obsługa danych tekstowych i liczbowych, wybór modelu czy redukcja wymiarowości staną się o wiele łatwiejsze do wykonania. Każda receptura zawiera kod, który można wstawić do swojego programu, połączyć lub zaadaptować według potrzeb. Przedstawiono także analizy wyjaśniające poszczególne rozwiązania i ich kontekst. Z tą książką płynnie przejdziesz od rozważań teoretycznych do opracowywania działających aplikacji i praktycznego korzystania z zalet uczenia maszynowego.
Receptury w tej książce dotyczą:
- wektorów, macierzy i tablic
- obsługi danych liczbowych i tekstowych, obrazów, a także związanych z datą i godziną
- redukcji wymiarowości za pomocą wyodrębniania i wyboru cech
- oceny i wyboru modelu oraz regresji liniowej i logistycznej
- maszyn wektorów nośnych (SVM), naiwnej klasyfikacji bayesowskiej, klasteryzacji i sieci neuronowych
- zapisywania i wczytywania wytrenowanych modeli
Uczenie maszynowe w Pythonie - użyj sprawdzonych receptur kodu!
Wybrane bestsellery
-
This practical guide provides nearly 200 self-contained recipes to help you solve machine learning challenges you may encounter in your daily work. If you’re comfortable with Python and its libraries, including pandas and scikit-learn, you’ll be able to address specific problems such ...
Machine Learning with Python Cookbook. Practical Solutions from Preprocessing to Deep Learning Machine Learning with Python Cookbook. Practical Solutions from Preprocessing to Deep Learning
(0,00 zł najniższa cena z 30 dni)203.15 zł
239.00 zł(-15%) -
Dave Thomas i Andy Hunt napisali pierwsze wydanie tej wpływowej książki w 1999 roku, aby pomóc swoim klientom tworzyć lepsze oprogramowanie i na nowo odnaleźć radość z kodowania. Nauki płynące z tamtego wydania pomogły wielu pokoleniom programistów zbadać istotę rozwoju oprogramowania, niezależni...
Pragmatyczny programista. Od czeladnika do mistrza. Wydanie II Pragmatyczny programista. Od czeladnika do mistrza. Wydanie II
(0,00 zł najniższa cena z 30 dni)53.90 zł
77.00 zł(-30%) -
Zarządzanie projektami to rozległa i skomplikowana dziedzina wiedzy. Dobry kierownik projektu powinien być osobą kompetentną, komunikatywną, zdyscyplinowaną, wszechstronną i doświadczoną, łączącą zdolności techniczne z marketingowymi, a nawet psychologicznymi. Dobry PM to zdolny dyrygent, pod któ...
Zwinnie do przodu. Poradnik kierownika projektów informatycznych Zwinnie do przodu. Poradnik kierownika projektów informatycznych
(0,00 zł najniższa cena z 30 dni)26.90 zł
89.00 zł(-70%) -
Metody statystyczne są kluczowym elementem data science, mimo to niewielu specjalistów data science posiada formalne wykształcenie statystyczne. Kursy i podręczniki o podstawach statystyki, rzadko kiedy omawiają temat z perspektywy data science. W drugim wydaniu tego popularnego podręcznika zosta...
Statystyka praktyczna w data science. 50 kluczowych zagadnień w językach R i Python. Wydanie II Statystyka praktyczna w data science. 50 kluczowych zagadnień w językach R i Python. Wydanie II
(0,00 zł najniższa cena z 30 dni)48.30 zł
69.00 zł(-30%) -
Agile i Scrum, Scrum i Agile. Opanowawszy branżę IT, powoli, ale konsekwentnie, zdobywają inne biznesowe przyczółki i rozgaszczają się w firmach na dobre… Albo niedobre, gdy budzą niezrozumienie, protesty, a czasem nawet chęć ucieczki! Agile i Scrum brzmią tak nowocześnie, w teorii świetnie...(0,00 zł najniższa cena z 30 dni)
27.93 zł
39.90 zł(-30%) -
Oto pierwszy tom dzieła, które stanowi inspirujące spojrzenie na sztuczną inteligencję. Jego zrozumienie nie wymaga wybitnej znajomości informatyki i matematyki. Książka jest wspaniałą syntezą wczesnych i późniejszych koncepcji, a także technik, przeprowadzoną we frameworku idei, metod i technolo...
Sztuczna inteligencja. Nowe spojrzenie. Wydanie IV. Tom 1 Sztuczna inteligencja. Nowe spojrzenie. Wydanie IV. Tom 1
(0,00 zł najniższa cena z 30 dni)118.30 zł
169.00 zł(-30%) -
To kolejny tom z serii Strategyzer przeznaczonej dla wizjonerów biznesu. Skorzystają z niej przedsiębiorcy, kierownictwo dużych organizacji oraz liderzy innowacji. Znalazły się tu opisy kluczowych narzędzi pozwalających budować modele biznesowe odporne na destabilizację, zarządzać portfelem przed...
Niezwyciężona firma. Jak nieustannie odkrywać swoją organizację na nowo i czerpać z najlepszych modeli biznesowych Niezwyciężona firma. Jak nieustannie odkrywać swoją organizację na nowo i czerpać z najlepszych modeli biznesowych
Alexander Osterwalder, Yves Pigneur, Alan Smith, Frederic Etiemble
(0,00 zł najniższa cena z 30 dni)26.90 zł
89.00 zł(-70%) -
BPMN pozwala na ciągłe analizowanie, monitorowanie i optymalizowanie procesów biznesowych. Jest narzędziem bardzo skutecznym, prawdziwym „świętym Graalem” współczesnego biznesu. Jednak nie jest on niestety tak przyjazny, jak mógłby oczekiwać początkujący użytkownik. Jego oryginalną sp...
Zrozumieć BPMN. Modelowanie procesów biznesowych. Wydanie 2 rozszerzone Zrozumieć BPMN. Modelowanie procesów biznesowych. Wydanie 2 rozszerzone
(0,00 zł najniższa cena z 30 dni)34.30 zł
49.00 zł(-30%) -
Ten podręcznik jest przeznaczony dla osób, które chcą dobrze zrozumieć matematyczne podstawy uczenia maszynowego i nabrać praktycznego doświadczenia w używaniu pojęć matematycznych. Wyjaśniono tutaj stosowanie szeregu technik matematycznych, takich jak algebra liniowa, geometria analityczna, rozk...(0,00 zł najniższa cena z 30 dni)
90.30 zł
129.00 zł(-30%) -
To drugi tom klasycznego podręcznika wiedzy o sztucznej inteligencji. Podobnie jak w wypadku pierwszej części, lektura tej książki nie wymaga wybitnej znajomości tematu. Dzięki przejrzystości tekstu i umiejętnemu unikaniu nadmiernego formalizmu można w dość łatwy sposób zrozumieć kluczowe idee i ...
Sztuczna inteligencja. Nowe spojrzenie. Wydanie IV. Tom 2 Sztuczna inteligencja. Nowe spojrzenie. Wydanie IV. Tom 2
(0,00 zł najniższa cena z 30 dni)90.30 zł
129.00 zł(-30%)
O autorze książki
1 Chris AlbonDr Chris Albon jest analitykiem danych i politologiem. Od ponad dziesięciu lat stosuje statystykę, sztuczną inteligencję i inne zdobycze informatyki w polityce, socjologii i przy zarządzaniu akcjami humanitarnymi. Obecnie pracuje dla Devoted Health — wykorzystuje naukę o danych i maszynowe uczenie w celu rozwiązania problemów amerykańskiego systemu ochrony zdrowia. Wcześniej był głównym analitykiem danych w kenijskim startupie BRCK .
Ebooka przeczytasz na:
-
czytnikach Inkbook, Kindle, Pocketbook i innych
-
systemach Windows, MacOS i innych
-
systemach Windows, Android, iOS, HarmonyOS
-
na dowolnych urządzeniach i aplikacjach obsługujących formaty: PDF, EPub, Mobi
Masz pytania? Zajrzyj do zakładki Pomoc »
Audiobooka posłuchasz:
-
w aplikacji Ebookpoint na Android, iOS, HarmonyOs
-
na systemach Windows, MacOS i innych
-
na dowolonych urządzeniach i aplikacjach obsługujących format MP3 (pliki spakowane w ZIP)
Masz pytania? Zajrzyj do zakładki Pomoc »
Kurs Video zobaczysz:
-
w aplikacji Ebookpoint na Android, iOS, HarmonyOs
-
na systemach Windows, MacOS i innych
-
na dowolonych urządzeniach i aplikacjach obsługujących format MP4 (pliki spakowane w ZIP)
Szczegóły książki
- Tytuł oryginału:
- Machine Learning with Python Cookbook: Practical Solutions from Preprocessing to Deep Learning
- Tłumaczenie:
- Robert Górczyński
- ISBN Książki drukowanej:
- 978-83-283-5046-5, 9788328350465
- Data wydania książki drukowanej:
- 2019-03-12
- ISBN Ebooka:
- 978-83-283-5051-9, 9788328350519
- Data wydania ebooka:
-
2019-03-12
Data wydania ebooka często jest dniem wprowadzenia tytułu do sprzedaży i może nie być równoznaczna z datą wydania książki papierowej. Dodatkowe informacje możesz znaleźć w darmowym fragmencie. Jeśli masz wątpliwości skontaktuj się z nami sklep@helion.pl.
- Format:
- 168x237
- Numer z katalogu:
- 84681
- druk na żądanie!
- dnż
- Rozmiar pliku Pdf:
- 3.1MB
- Rozmiar pliku ePub:
- 4.2MB
- Rozmiar pliku Mobi:
- 9.7MB
- Pobierz przykładowy rozdział PDF
- Przykłady na ftp
Ebook zawiera materiały dodatkowe, które możesz pobrać z serwera FTP - link znajdziesz na stronie redakcyjnej.
- Zgłoś erratę
- Kategorie:
Biznes IT » IT w ekonomii
Uczenie maszynowe
- Serie wydawnicze: O'Reilly
Spis treści książki
- 1.0. Wprowadzenie 15
- 1.1. Tworzenie wektora 15
- 1.2. Tworzenie macierzy 16
- 1.3. Tworzenie macierzy rzadkiej 17
- 1.4. Pobieranie elementów 18
- 1.5. Opisywanie macierzy 20
- 1.6. Przeprowadzanie operacji na elementach 20
- 1.7. Znajdowanie wartości maksymalnej i minimalnej 21
- 1.8. Obliczanie średniej, wariancji i odchylenia standardowego 22
- 1.9. Zmiana kształtu tablicy 23
- 1.10. Transponowanie wektora lub macierzy 24
- 1.11. Spłaszczanie macierzy 25
- 1.12. Znajdowanie rzędu macierzy 25
- 1.13. Obliczanie wyznacznika macierzy 26
- 1.14. Pobieranie przekątnej macierzy 27
- 1.15. Obliczanie śladu macierzy 27
- 1.16. Znajdowanie wektorów i wartości własnych 28
- 1.17. Obliczanie iloczynu skalarnego 29
- 1.18. Dodawanie i odejmowanie macierzy 30
- 1.19. Mnożenie macierzy 31
- 1.20. Odwracanie macierzy 32
- 1.21. Generowanie liczb losowych 33
- 2.0. Wprowadzenie 35
- 2.1. Wczytywanie przykładowego zbioru danych 35
- 2.2. Tworzenie symulowanego zbioru danych 36
- 2.3. Wczytywanie pliku CSV 39
- 2.4. Wczytywanie pliku Excela 40
- 2.5. Wczytywanie pliku JSON 41
- 2.6. Wykonywanie zapytań do bazy danych SQL 42
- 3.0. Wprowadzenie 45
- 3.1. Tworzenie ramki danych 46
- 3.2. Opisywanie danych 47
- 3.3. Poruszanie się po ramce danych 49
- 3.4. Pobieranie wierszy na podstawie pewnych warunków 51
- 3.5. Zastępowanie wartości 52
- 3.6. Zmiana nazwy kolumny 53
- 3.7. Znajdowanie wartości minimalnej, maksymalnej, sumy, średniej i liczby elementów w kolumnie 54
- 3.8. Znajdowanie unikatowych wartości 55
- 3.9. Obsługa brakujących wartości 56
- 3.10. Usuwanie kolumn 58
- 3.11. Usuwanie wiersza 59
- 3.12. Usuwanie powielonych wierszy 60
- 3.13. Grupowanie wierszy 62
- 3.14. Grupowanie wierszy według czasu 63
- 3.15. Iterowanie przez kolumnę 65
- 3.16. Wywoływanie funkcji dla wszystkich elementów kolumny 66
- 3.17. Wywoływanie funkcji dla grupy 67
- 3.18. Konkatenacja obiektów typu DataFrame 68
- 3.19. Złączanie obiektów typu DataFrame 69
- 4.0. Wprowadzenie 73
- 4.1. Przeskalowywanie cechy 73
- 4.2. Standaryzowanie cechy 74
- 4.3. Normalizowanie obserwacji 76
- 4.4. Generowanie cech wielomianowych i interakcji 78
- 4.5. Transformacja cech 79
- 4.6. Wykrywanie elementów odstających 80
- 4.7. Obsługa elementów odstających 82
- 4.8. Dyskretyzacja cech 84
- 4.9. Grupowanie obserwacji przy użyciu klastra 85
- 4.10. Usuwanie obserwacji, w których brakuje wartości 87
- 4.11. Uzupełnianie brakujących wartości 88
- 5.0. Wprowadzenie 91
- 5.1. Kodowanie nominalnych cech kategoryzujących 92
- 5.2. Kodowanie porządkowych cech kategoryzujących 94
- 5.3. Kodowanie słowników cech 96
- 5.4. Wstawianie brakujących wartości klas 98
- 5.5. Obsługa niezrównoważonych klas 99
- 6.0. Wprowadzenie 103
- 6.1. Oczyszczanie tekstu 103
- 6.2. Przetwarzanie i oczyszczanie danych HTML 105
- 6.3. Usuwanie znaku przestankowego 105
- 6.4. Tokenizacja tekstu 106
- 6.5. Usuwanie słów o małym znaczeniu 107
- 6.6. Stemming słów 108
- 6.7. Oznaczanie części mowy 109
- 6.8. Kodowanie tekstu za pomocą modelu worka słów 111
- 6.9. Określanie wagi słów 113
- 7.0. Wprowadzenie 117
- 7.1. Konwertowanie ciągu tekstowego na datę 117
- 7.2. Obsługa stref czasowych 118
- 7.3. Pobieranie daty i godziny 120
- 7.4. Podział danych daty na wiele cech 121
- 7.5. Obliczanie różnicy między datami 122
- 7.6. Kodowanie dni tygodnia 123
- 7.7. Tworzenie cechy opóźnionej w czasie 124
- 7.8. Użycie okien upływającego czasu 125
- 7.9. Obsługa brakujących danych w serii danych zawierających wartości daty i godziny 126
- 8.0. Wprowadzenie 129
- 8.1. Wczytywanie obrazu 129
- 8.2. Zapisywanie obrazu 132
- 8.3. Zmiana wielkości obrazu 133
- 8.4. Kadrowanie obrazu 134
- 8.5. Rozmywanie obrazu 135
- 8.6. Wyostrzanie obrazu 138
- 8.7. Zwiększanie kontrastu 138
- 8.8. Izolowanie kolorów 141
- 8.9. Progowanie obrazu 142
- 8.10. Usuwanie tła obrazu 145
- 8.11. Wykrywanie krawędzi 147
- 8.12. Wykrywanie narożników w obrazie 150
- 8.13. Tworzenie cech w uczeniu maszynowym 153
- 8.14. Użycie średniej koloru jako cechy 155
- 8.15. Użycie histogramu koloru jako cechy 157
- 9.0. Wprowadzenie 161
- 9.1. Redukowanie cech za pomocą głównych składowych 161
- 9.2. Redukowanie cech, gdy dane są liniowo nierozłączne 164
- 9.3. Redukowanie cech przez maksymalizację rozłączności klas 166
- 9.4. Redukowanie cech za pomocą rozkładu macierzy 169
- 9.5. Redukowanie cech w rzadkich danych 170
- 10.0. Wprowadzenie 173
- 10.1. Progowanie wariancji cechy liczbowej 173
- 10.2. Progowanie wariancji cechy binarnej 175
- 10.3. Obsługa wysoce skorelowanych cech 176
- 10.4. Usuwanie nieistotnych dla klasyfikacji cech 177
- 10.5. Rekurencyjne eliminowanie cech 179
- 11.0. Wprowadzenie 183
- 11.1. Modele sprawdzianu krzyżowego 183
- 11.2. Tworzenie modelu regresji bazowej 186
- 11.3. Tworzenie modelu klasyfikacji bazowej 188
- 11.4. Ocena prognoz klasyfikatora binarnego 189
- 11.5. Ocena progowania klasyfikatora binarnego 192
- 11.6. Ocena prognoz klasyfikatora wieloklasowego 195
- 11.7. Wizualizacja wydajności klasyfikatora 197
- 11.8. Ocena modelu regresji 199
- 11.9. Ocena modelu klasteryzacji 201
- 11.10. Definiowanie niestandardowych współczynników oceny modelu 202
- 11.11. Wizualizacja efektu wywieranego przez wielkość zbioru uczącego 204
- 11.12. Tworzenie raportu tekstowego dotyczącego współczynnika oceny 206
- 11.13. Wizualizacja efektu wywieranego przez zmianę wartości hiperparametrów 207
- 12.0. Wprowadzenie 211
- 12.1. Wybór najlepszych modeli przy użyciu wyczerpującego wyszukiwania 212
- 12.2. Wybór najlepszych modeli za pomocą przeszukiwania losowego 214
- 12.3. Wybór najlepszych modeli z wielu algorytmów uczenia maszynowego 216
- 12.4. Wybór najlepszych modeli na etapie przygotowywania danych 217
- 12.5. Przyspieszanie wyboru modelu za pomocą równoległości 219
- 12.6. Przyspieszanie wyboru modelu przy użyciu metod charakterystycznych dla algorytmu 220
- 12.7. Ocena wydajności po wyborze modelu 221
- 13.0. Wprowadzenie 225
- 13.1. Wyznaczanie linii 225
- 13.2. Obsługa wpływu interakcji 227
- 13.3. Wyznaczanie zależności nieliniowej 228
- 13.4. Redukowanie wariancji za pomocą regularyzacji 230
- 13.5. Redukowanie cech za pomocą regresji metodą LASSO 232
- 14.0. Wprowadzenie 235
- 14.1. Trenowanie klasyfikatora drzewa decyzyjnego 235
- 14.2. Trenowanie regresora drzewa decyzyjnego 237
- 14.3. Wizualizacja modelu drzewa decyzyjnego 238
- 14.4. Trenowanie klasyfikatora losowego lasu 240
- 14.5. Testowanie regresora losowego lasu 241
- 14.6. Identyfikacja ważnych cech w losowych lasach 242
- 14.7. Wybór ważnych cech w losowym lesie 245
- 14.8. Obsługa niezrównoważonych klas 246
- 14.9. Kontrolowanie wielkości drzewa 247
- 14.10. Poprawa wydajności za pomocą wzmocnienia 248
- 14.11. Ocena losowego lasu za pomocą estymatora błędu out-of-bag 250
- 15.0. Wprowadzenie 251
- 15.1. Wyszukiwanie najbliższych sąsiadów obserwacji 251
- 15.2. Tworzenie klasyfikatora k najbliższych sąsiadów 253
- 15.3. Ustalanie najlepszej wielkości sąsiedztwa 255
- 15.4. Tworzenie klasyfikatora najbliższych sąsiadów opartego na promieniu 256
- 16.0. Wprowadzenie 259
- 16.1. Trenowanie klasyfikatora binarnego 259
- 16.2. Trenowanie klasyfikatora wieloklasowego 260
- 16.3. Redukcja wariancji poprzez regularyzację 262
- 16.4. Trenowanie klasyfikatora na bardzo dużych danych 263
- 16.5. Obsługa niezrównoważonych klas 264
- 17.0. Wprowadzenie 267
- 17.1. Trenowanie klasyfikatora liniowego 267
- 17.2. Obsługa liniowo nierozdzielnych klas przy użyciu funkcji jądra 270
- 17.3. Określanie prognozowanego prawdopodobieństwa 273
- 17.4. Identyfikacja wektorów nośnych 275
- 17.5. Obsługa niezrównoważonych klas 276
- 18.0. Wprowadzenie 279
- 18.1. Trenowanie klasyfikatora dla cech ciągłych 280
- 18.2. Trenowanie klasyfikatora dla cech dyskretnych lub liczebnych 282
- 18.3. Trenowanie naiwnego klasyfikatora bayesowskiego dla cech binarnych 283
- 18.4. Kalibrowanie prognozowanego prawdopodobieństwa 284
- 19.0. Wprowadzenie 287
- 19.1. Klasteryzacja za pomocą k średnich 287
- 19.2. Przyspieszanie klasteryzacji za pomocą k średnich 290
- 19.3. Klasteryzacja za pomocą algorytmu meanshift 290
- 19.4. Klasteryzacja za pomocą algorytmu DBSCAN 292
- 19.5. Klasteryzacja za pomocą łączenia hierarchicznego 293
- 20.0. Wprowadzenie 295
- 20.1. Przygotowywanie danych dla sieci neuronowej 296
- 20.2. Projektowanie sieci neuronowej 297
- 20.3. Trenowanie klasyfikatora binarnego 300
- 20.4. Trenowanie klasyfikatora wieloklasowego 302
- 20.5. Trenowanie regresora 304
- 20.6. Generowanie prognoz 305
- 20.7. Wizualizacja historii trenowania 307
- 20.8. Redukcja nadmiernego dopasowania za pomocą regularyzacji wagi 310
- 20.9. Redukcja nadmiernego dopasowania za pomocą techniki wcześniejszego zakończenia procesu uczenia 311
- 20.10. Redukcja nadmiernego dopasowania za pomocą techniki porzucenia 313
- 20.11. Zapisywanie postępu modelu uczącego 315
- 20.12. K-krotny sprawdzian krzyżowy sieci neuronowej 316
- 20.13. Dostrajanie sieci neuronowej 318
- 20.14. Wizualizacja sieci neuronowej 320
- 20.15. Klasyfikacja obrazów 322
- 20.16. Poprawa wydajności przez modyfikację obrazu 325
- 20.17. Klasyfikowanie tekstu 327
- 21.0. Wprowadzenie 331
- 21.1. Zapisywanie i wczytywanie modelu biblioteki scikit-learn 331
- 21.2. Zapisywanie i wczytywanie modelu biblioteki Keras 332
Wprowadzenie 11
1. Wektor, macierz i tablica 15
2. Wczytywanie danych 35
3. Przygotowywanie danych 45
4. Obsługa danych liczbowych 73
5. Obsługa danych kategoryzujących 91
6. Obsługa tekstu 103
7. Obsługa daty i godziny 117
8. Obsługa obrazów 129
9. Redukowanie wymiarowości za pomocą wyodrębniania cech 161
10. Redukcja wymiarowości za pomocą wyboru cech 173
11. Ocena modelu 183
12. Wybór modelu 211
13. Regresja liniowa 225
14. Drzewa i lasy 235
15. Algorytm k najbliższych sąsiadów 251
16. Regresja logistyczna 259
17. Maszyna wektora nośnego 267
18. Naiwny klasyfikator bayesowski 279
19. Klasteryzacja 287
20. Sieci neuronowe 295
21. Zapisywanie i wczytywanie wytrenowanych modeli 331
Skorowidz 335
Oceny i opinie klientów: Uczenie maszynowe w Pythonie. Receptury Chris Albon (2)
Weryfikacja opinii następuję na podstawie historii zamówień na koncie Użytkownika umieszczającego opinię. Użytkownik mógł otrzymać punkty za opublikowanie opinii uprawniające do uzyskania rabatu w ramach Programu Punktowego.
(2)
(0)
(0)
(0)
(0)
(0)
Radosław S,
Data dodania: 2021-01-13 Ocena: 6 Opinia potwierdzona zakupem
Data dodania: 2019-04-17 Ocena: 6 Opinia potwierdzona zakupem
więcej opinii