ODBIERZ TWÓJ BONUS :: »

Recenzje

Dlaczego pamiętamy? Odkrywanie sekretów pamięci, aby zachować to, co ważne

„Dlaczego pamiętamy” to książka, która zaskoczyła mnie swoją przystępnością i głębią jednocześnie. Zwykle spodziewam się, że popularnonaukowe książki o mózgu będą przynajmniej momentami przegadane albo zbyt hermetyczne - tutaj nic takiego nie miało miejsca. Charan Ranganath pisze o pamięci z fascynacją, ale i z dużym zrozumieniem dla czytelnika. Nie popisuje się wiedzą - dzieli się nią. Najbardziej poruszyło mnie to, że książka nie traktuje pamięci jak zbioru danych do przechowywania - ale jak opowieść. Autor udowadnia, że pamięć nie działa jak twardy dysk, lecz jak system tworzony przez emocje, doświadczenia i to, co uznajemy za ważne. Dzięki temu łatwiej mi było zrozumieć, dlaczego niektóre wspomnienia są wyraźne jak zdjęcia, a inne rozmazują się jak sen. Dużą siłą tej książki są przykłady z życia: historie pacjentów, eksperymenty psychologiczne i własne doświadczenia autora. Czułam się momentami, jakbym rozmawiała z mądrym, przystępnym wykładowcą, który potrafi połączyć najnowsze odkrycia neuronaukowe z codziennymi sytuacjami - z tym, jak się uczymy, kochamy, jak zapominamy i jak się zmieniamy. To nie jest poradnik, choć daje do myślenia, jak możemy świadomiej traktować swoją pamięć. To nie jest też tylko książka o mózgu - to książka o tym, kim jesteśmy. Bo - jak pisze Ranganath - nasza pamięć tworzy naszą tożsamość. Po przeczytaniu „Dlaczego pamiętamy” nie tylko lepiej rozumiem mechanizmy zapamiętywania, ale też czuję większą empatię wobec samej siebie - wobec moich zapomnień, skrzywień i wspomnień, które wracają w dziwnych momentach. Dla mnie to było doświadczenie nie tylko intelektualne, ale i emocjonalne.

bookworm.lifestyle Kramarczyk Małgorzata

Bunt komórek. O faktach, mitach i zagadkach raka

Miałam okazję zapoznać się z książką „Bunt komórek. O faktach, mitach i zagadkach raka”. W ten sposób postanowiłam trochę oswoić się z rakiem — mój ojciec z nim walczył, więc gdzieś tam we mnie wciąż jest strach. A wroga najlepiej poznać. Czy książka mnie uspokoiła? Na pewno nie, ale pozwoliła mi się nie bać. Już we wstępie dowiadujemy się, że książka przeznaczona jest dla osób, które nie muszą znać się na medycynie — bo jeden z autorów również się na niej nie zna. To ten drugi odpowiada za merytoryczne zagadnienia. Autorzy od razu rozprawiają się z mitami dotyczącymi raka i logicznie wyjaśniają, dlaczego „nagle zachorowalność wzrasta” (celowo w cudzysłowie — jeśli przeczytasz, zrozumiesz dlaczego 😉). Warto też zaznaczyć, że medycyna jest coraz skuteczniejsza w walce z rakiem — wiemy dziś o nim znacznie więcej niż 20 czy 30 lat temu. Kolejne rozdziały wprowadzają nas w naukowy świat — część tych informacji poznaliśmy kiedyś na lekcjach biologii, tutaj są one rozszerzone i pomagają „poznać wroga”. Dla mnie jednym z najważniejszych rozdziałów był ten o przerzutach raka — dlaczego, co i jak. Mój ojciec właśnie przez przerzuty nie miał szansy na przeżycie (wybaczcie prywatę, ale to temat bardzo emocjonalny, mimo że od jego śmierci minęło już ponad 20 lat... Wiem jednak, że dziś miałby szansę). Warto też zrozumieć różnicę między leczeniem a wyleczeniem — sama choruję na cukrzycę, leczę się i wiem, że się nie wyleczę, ale mogę z nią żyć — i to długo. Tak samo moja koleżanka ze szkolnej ławki musi do końca życia wykonywać badania, by sprawdzać, czy rak nie wrócił — bo może się okazać, że przez lata był jedynie w uśpieniu. Gdy już zrozumiemy, o co w tym wszystkim chodzi, autorzy tłumaczą, jak rak jest diagnozowany i jak się z nim walczy. Dziś wiemy, że „rak rakowi nierówny” — nie ma jednej cudownej terapii, ale właśnie dlatego mamy większe szanse go pokonać. Na końcu, tuż przed posłowiem, znajduje się jeszcze jeden bardzo ważny rozdział: PROFILAKTYKA. Warto go dokładnie przeczytać i się nad nim zastanowić… Czy polecam książkę? Zdecydowanie tak — bo wiele wyjaśnia i rozwiewa wątpliwości. Nie musimy się panicznie bać. Wiemy, co robić. 😉

Alilandpl Kubiś Mirela

LLM w projektowaniu oprogramowania. Tworzenie inteligentnych aplikacji i agentów z wykorzystaniem dużych modeli językowych

Recenzja książki „LLM w projektowaniu oprogramowania” 16/07/2025 Wiesław SewerynLeave a comment Obserwujemy ważną zmianę w oprogramowaniu, które nas otacza. Dotyczy to nie tylko techniki samego programowania, pisania programu, choć ten aspekt jest najbardziej nagłaśniany, zwłaszcza w kontekście „pracy dla programistów”. Wiadomo, programista istota leniwa, szuka ułatwień dla swojego codziennego znoju. Sztuczna inteligencja jako asystent pisania i testowania programu to nader pożyteczny wynalazek. Ale to tylko niewielka część zmian w informatyce, której źródłem jest AI. Prawdziwa rewolucja dotyczy sposobu przetwarzania informacji. Przyzwyczailiśmy się do tego, że program komputerowy działa jak zdeterminowana maszynka logiczna. Wprowadzasz jakieś dane, komputer przetworzy te dane według zaprogramowanych reguł i wypluje odpowiedź. Za każdym razem taką samą. Determinizm działania to immanentna cecha każdego programu. Naprawdę trudno sobie wyobrazić, że komputer będzie różnie odpowiadał na zadane pytanie lub różnie wykonywał postawione zadanie. Na razie zmienia się sposób projektowania/programowania aplikacji, które stają się mniej hermetyczne, bardziej elastyczne w interakcji i coraz częściej pełnią rolę pomocnika/asystenta niż bezpośredniego wykonawcy. Rewolucja informacyjna zapoczątkowana przez LLM-y, czyli duże modele językowe, powoduje, że sposób „myślenia” programu komputerowego zbliża się do sposobu myślenia człowieka; w jednym i drugim przypadku przetwarza się informację niestrukturalną, język potoczny, zawierający nieścisłości, braki i błędy zarówno na wejściu jak i generowane na wyjściu. Czy chcemy tego, czy nie, wokół nas rośnie prawdziwy ekosystem informatyczny (i informacyjny), z którym trzeba będzie jakoś żyć. Można też powiedzieć, że zachodzi zmiana paradygmatu programowania. Dotychczasowy zestaw paradygmatów (programowanie imperatywne, obiektowe (OOP), funkcyjne, logiczne, deklaratywne, zdarzerzeniowe… i kilka innych) został rozszerzony o programowanie sterowane danymi, którego formuła wydaje się idealnie pasować do systemów eksperckich opartych o LLM i duże zbiory nieuporządkowanych lub częściowo uporządkowanych danych. Książka „LLM w projektowaniu oprogramowania. Tworzenie inteligentnych aplikacji i agentów z wykorzystaniem dużych modeli językowych” Valentiny Alto traktuje o nowoczesnych zastosowaniach dużych modeli językowych (LLM) w nowych klasach „inteligentnych” urządzeń i aplikacji. Cudzysłów w słowie „inteligentny” oznacza, że oprogramowanie sterujące tymi urządzeniami posiada cechy właściwe sztucznej inteligencji, nie jest to w żaden sposób dezawuowanie ich wyjątkowości. Zamiarem Autorki było napisanie przewodnika dla osób pragnących zdobyć wiedzę (albo jej przyczółki) na temat praktycznego wykorzystania sztucznej inteligencji w tworzenia nowoczesnego oprogramowania. Pierwszy rozdział książki jest wprowadzeniem do LLM. To oczywiste, ponieważ większość książek o AI zaczyna od podstaw, tokenizacji, osadzania, propagacji wstecznej, prawdopodobieństwa, twierdzenia Bayesa, czyli jazdy obowiązkowej. Rozdział drugi omawia udział dużych modeli językowych w tworzeniu oprogramowania. Dotychczasowe, klasyczne oprogramowanie było w pewnym sensie samowystarczalne, a programista (lub zespół) powinien posiąść pełnię wiedzy w dziedzinie, którą oprogramowują. Systemy, w których są osadzone LLM nie są tworzone od podstaw. Zakłada się a priori, że poważna część wiedzy potrzebnej do działania programu będzie wydobywana z osadzonego modelu językowego. Mówiąc prościej, programista programuje „portal” do skarbnicy wiedzy. LLM jest wsparciem merytorycznym dla systemu, zapleczem wiedzowym. Taką ideę wspierającej roli sztucznej inteligencji w systemie informatycznym autorka przedstawia na przykładzie znanego powszechnie systemu copilot oraz mniej znanego systemu LangChain, który jest otwartoźródłowym frameworkiem przeznaczonym dla systemów pisanych w Pythonie lub JS/TS (JavaScript/TypeScript). Wybór frameworku jest sporym wyzwaniem dla programisty, zwłaszcza, że branża jest nowa i nie ma zdecydowanego lidera, który zapewniałby solidne wsparcie podczas całego czasu życia oprogramowania. Dużo większym problemem jest wybór modelu językowego. Liczące się LLM-y różnią się w zasadzie wszystkim, od architektury poczynając, po wielkość (liczbę miliardów parametrów) i dane, na których zostały wytrenowane. Wybór modelu będzie miał duże znaczenie dla przyszłego działania projektowanego systemu, jego jakość, wydajność i koszt. Trzeci rozdział porównuje znane modele językowe, zarówno te własnościowe (z zamkniętym, nieujawnionym kodem źródłowym) jak i otwartoźródłowe. Znany powszechnie model GPT-4 (premiera marzec 2023) udostępniony przez firmę OpenAI należy do tej pierwszej grupy, podobnie jak Gemini 1.5 wydany przez firmę Google. Na drugim, otwartoźródłowym biegunie znajduje się m.in. model Llama 2 wydany przez firmę Meta, właściciela Facebooka. Rozdział 4 objaśnia znaczenie tzw. prompt engineeringu, czyli sztuki wydawania poleceń (lub zadawania pytań) sztucznej inteligencji. Niby oczywiste, a warto przeczytać. Bo na głupie pytanie głupia odpowiedź, jak mawiali starożytni. Od rozdziału piątego zaczynają się programistyczne konkrety, czyli np. „Osadzanie dużych modeli językowych w aplikacjach”, „Tworzenie aplikacji konwersacyjnych”. W rozdziale 9 Autorka porusza problem bolesny dla prawie wszystkich programistów: czy ich eldorado (finansowe) skończy się szybko, czy jeszcze trochę potrwa, czyli kiedy sztuczna inteligencja zastąpi programistów w „klepaniu kodu”? Przedostatni, jedenasty rozdział porusza bardzo ważny problem. Otóż, przygotowując specjalistyczną aplikację, powiedzmy medyczno-diagnostyczną, na pewno zastanowimy się, czy na pewno LLM wyszkolony na źródłach ogólnych, poradzi sobie z odpowiedzialną odpowiedzią na specjalistyczne pytania, od której będzie zależało życie pacjenta albo zastosowana terapia? Czy nie warto jednak podszkolić model językowy w wąskiej specjalizacji, do której będzie używany i uczyć go permanentnie? Jak to zrobić? Bo w celowość tworzenia takich wyspecjalizowanych modeli chyba nie wątpimy. Takie działanie nazywamy dostrajaniem dużych modeli językowych. Oznacza to, że wiedza zdobyta przez model będzie traktowana jako stan podstawowy, baza do wytrenowania nowej, specjalistycznej sieci neuronowej. Rozdział ostatni to bardzo potrzebne rozważania Autorki na temat odpowiedzialności sztucznej inteligencji, a raczej naszej odpowiedzialności ZA sztuczną inteligencję. Warto przeczytać i zastanowić się, to nie jest zwykłe moralizatorstwo. Niniejszy tekst miał być recenzją, miał podbijać zalety książki i piętnować wady. Posłużył jednak za pretekst do skrótowego przedstawienia różnych aspektów dużych modeli językowych z punktu widzenia twórców aplikacji nowej ery. Ocenę pozostawiam Czytelnikom. Ja tę książkę przeczytałem, wiele rzeczy zrozumiałem i dlatego uważam, że jest pozycją użyteczną i wartą znalezienia się na mojej półce papierowych książek. Valentina Alto „LLM w projektowaniu oprogramowania. Tworzenie inteligentnych aplikacji i agentów z wykorzystaniem dużych modeli językowych”. Wydawnictwo Helion 2025. Notka o Autorce Valentina Alto jest inżynierem oprogramowania w firmie Microsoft. Od 2022 zajmuje się wdrożeniami rozwiązań AU w branży farmaceutycznej a także frameworkami i platformami IoT (Internet of Things), Azure Machine Learning i Azure Cognitive Services. Tworzy też konkretne rozwiązania Power BI. Jest autorką książek i artykułów technicznych.

portal popularnonaukowy Seweryn Wiesław

Bezpieczeństwo aplikacji LLM. Niezbędnik dla programistów, projektantów i red teamów

Ta książka idealnie wpisuje się w tematykę Bezpieczeństwa AI, którą zajmuję się na co dzień, dlatego już od dłuższego czasu miałem ją na oku. Początkowo w wersji angielskiej. Słyszałem o niej głównie dobre opinie. Uważam, że na rynku nie ma jeszcze zbyt wielu pozycji, które traktowałyby o tym temacie w sposób uporządkowany, oparty na przykładach, a jednocześnie głęboki. Od dłuższego czasu zbierałem się do zamówienia tej książki w oryginale. Gdy zauważyłem, że została już wydana po polsku, postanowiłem dać jej szansę i przekonać się, czy opinie mówiły prawdę. O czym jest więc książka? „Bezpieczeństwo aplikacji LLM” to ambitna próba usystematyzowania ryzyk, zagrożeń i technik ochrony systemów opartych o duże modele językowe (LLM). Autor podejmuje się trudnego zadania - opisania szybko rozwijającej się i wciąż dość nowej dziedziny - w sposób metodyczny, pełen przykładów i odniesień do praktyki. Wartościowa jest duża liczba plastycznych przykładów, które pomagają zrozumieć mechanizmy ataków oraz możliwe środki zaradcze. W stylu przypomina to kultową książkę Adama Shostacka o modelowaniu zagrożeń - obaj autorzy biorą temat na warsztat i rozkładają go na czynniki pierwsze, ilustrując każdą klasę zagrożeń konkretnym przypadkiem. To zdecydowanie bardzo mocna strona tej książki. Książka nie stara się być „fajna” - ale za to jest solidna. Przypomina bardziej porządny podręcznik niż książkę popularnonaukową, ale dzięki plastycznym, konkretnym przykładom nie męczy. Czyta się ją jak notatki dobrego kolegi z zespołu, który rozrysował Ci cały kontekst zagrożenia na tablicy, a potem dorzucił jeszcze dwa przykłady z życia i kontrprzykład, żeby było jasne, gdzie nie działa. Choć książka okazała się wartościowa, początek wzbudził we mnie mieszane uczucia. Zaczęło się od wstępu o OWASP-ie, który - nie ma co ukrywać - dla osób siedzących w temacie od lat, może być zbędny. Jednak nie przeszkadzał. Trochę dalej zaskoczyło mnie coś innego. Z perspektywy praktyka, jednym z największych minusów tej książki jest tłumaczenie angielskich pojęć technicznych na język polski. Rozumiem chęć uczynienia treści bardziej przystępną, jednak efekt jest odwrotny: tłumaczenia często brzmią sztucznie, są mniej precyzyjne i zmuszają do ciągłego mapowania nazw na angielskie odpowiedniki, które dominują w codziennej pracy z AI. W świecie, gdzie terminologia anglojęzyczna jest standardem - zwłaszcza w dziedzinie AI - to niepotrzebna przeszkoda, która mi odbierała nieco przyjemność z lektury. Myślę, że prostym rozwiązaniem tej niedogodności mogłoby być podanie angielskich odpowiedników w przypisach. Mimo to książkę oceniam zdecydowanie pozytywnie. Kolejne rozdziały okazały się świetną nauką i źródłem inspiracji. Właściwie co kilka stron notowałem kolejne techniki, które mógłbym wykorzystać w mojej codziennej pracy. Czy to książka dla każdego? Nie. I dobrze. To książka dla ludzi, którzy wiedzą, że „prompt injection” to dopiero początek, a nie koniec listy problemów. Dla tych, którzy chcą się nauczyć myśleć o systemach LLM jak o realnych, złożonych aplikacjach z podatnościami, atakami i kontekstem wdrożeniowym. Czy polecam? Tak. Bardzo. Z zastrzeżeniem: jeśli masz już doświadczenie w bezpieczeństwie i dobrze czujesz się w anglojęzycznym świecie AI, zdecydowanie polecam angielską wersję. Jeśli dopiero zaczynasz poznawać ten obszar lub nie masz biegłości w technicznym angielskim - wersja polska pomoże Ci bez przeszkód zacząć działać w tym obszarze. Jednak potem, gdy będziesz już czytał/a inne materiały, czeka Cię trochę pracy z mapowaniem nazw polskich na angielskie. Nie mniej książka świetnie systematyzuje obecną wiedzę na temat bezpieczeństwa AI w integracji jej z systemami IT.

Blog, LinkedIn, YouTube, Newsletter Sroka Adrian

Reguła 80/20 i pozostałe teorie sukcesu. Naukowe podstawy: od teorii gier po punkt zwrotny

Reguła 80/20 i pozostałe teorie sukcesu - Naukowe podstawy od teorii gier po punkt zwroty - Richard Koch - Wydawnictwo OnePress Motywująca Inspirująca Droga do sukcesu Binzes Psychologia Bogacenie się Jeśli szukacie sposoby na sukces, kartka po kartce odkrywamy kolejne prawa zagadnienia biznesowe, sposobu bogacenia się, zysków, rozwoju.

slodkogorzkiebook Kocon Norbert
Zamknij Pobierz aplikację mobilną Helion