Recenzje
Dlaczego pamiętamy? Odkrywanie sekretów pamięci, aby zachować to, co ważne
„Dlaczego pamiętamy” to książka, która zaskoczyła mnie swoją przystępnością i głębią jednocześnie. Zwykle spodziewam się, że popularnonaukowe książki o mózgu będą przynajmniej momentami przegadane albo zbyt hermetyczne - tutaj nic takiego nie miało miejsca. Charan Ranganath pisze o pamięci z fascynacją, ale i z dużym zrozumieniem dla czytelnika. Nie popisuje się wiedzą - dzieli się nią. Najbardziej poruszyło mnie to, że książka nie traktuje pamięci jak zbioru danych do przechowywania - ale jak opowieść. Autor udowadnia, że pamięć nie działa jak twardy dysk, lecz jak system tworzony przez emocje, doświadczenia i to, co uznajemy za ważne. Dzięki temu łatwiej mi było zrozumieć, dlaczego niektóre wspomnienia są wyraźne jak zdjęcia, a inne rozmazują się jak sen. Dużą siłą tej książki są przykłady z życia: historie pacjentów, eksperymenty psychologiczne i własne doświadczenia autora. Czułam się momentami, jakbym rozmawiała z mądrym, przystępnym wykładowcą, który potrafi połączyć najnowsze odkrycia neuronaukowe z codziennymi sytuacjami - z tym, jak się uczymy, kochamy, jak zapominamy i jak się zmieniamy. To nie jest poradnik, choć daje do myślenia, jak możemy świadomiej traktować swoją pamięć. To nie jest też tylko książka o mózgu - to książka o tym, kim jesteśmy. Bo - jak pisze Ranganath - nasza pamięć tworzy naszą tożsamość. Po przeczytaniu „Dlaczego pamiętamy” nie tylko lepiej rozumiem mechanizmy zapamiętywania, ale też czuję większą empatię wobec samej siebie - wobec moich zapomnień, skrzywień i wspomnień, które wracają w dziwnych momentach. Dla mnie to było doświadczenie nie tylko intelektualne, ale i emocjonalne.
Bunt komórek. O faktach, mitach i zagadkach raka
Miałam okazję zapoznać się z książką „Bunt komórek. O faktach, mitach i zagadkach raka”. W ten sposób postanowiłam trochę oswoić się z rakiem — mój ojciec z nim walczył, więc gdzieś tam we mnie wciąż jest strach. A wroga najlepiej poznać. Czy książka mnie uspokoiła? Na pewno nie, ale pozwoliła mi się nie bać. Już we wstępie dowiadujemy się, że książka przeznaczona jest dla osób, które nie muszą znać się na medycynie — bo jeden z autorów również się na niej nie zna. To ten drugi odpowiada za merytoryczne zagadnienia. Autorzy od razu rozprawiają się z mitami dotyczącymi raka i logicznie wyjaśniają, dlaczego „nagle zachorowalność wzrasta” (celowo w cudzysłowie — jeśli przeczytasz, zrozumiesz dlaczego 😉). Warto też zaznaczyć, że medycyna jest coraz skuteczniejsza w walce z rakiem — wiemy dziś o nim znacznie więcej niż 20 czy 30 lat temu. Kolejne rozdziały wprowadzają nas w naukowy świat — część tych informacji poznaliśmy kiedyś na lekcjach biologii, tutaj są one rozszerzone i pomagają „poznać wroga”. Dla mnie jednym z najważniejszych rozdziałów był ten o przerzutach raka — dlaczego, co i jak. Mój ojciec właśnie przez przerzuty nie miał szansy na przeżycie (wybaczcie prywatę, ale to temat bardzo emocjonalny, mimo że od jego śmierci minęło już ponad 20 lat... Wiem jednak, że dziś miałby szansę). Warto też zrozumieć różnicę między leczeniem a wyleczeniem — sama choruję na cukrzycę, leczę się i wiem, że się nie wyleczę, ale mogę z nią żyć — i to długo. Tak samo moja koleżanka ze szkolnej ławki musi do końca życia wykonywać badania, by sprawdzać, czy rak nie wrócił — bo może się okazać, że przez lata był jedynie w uśpieniu. Gdy już zrozumiemy, o co w tym wszystkim chodzi, autorzy tłumaczą, jak rak jest diagnozowany i jak się z nim walczy. Dziś wiemy, że „rak rakowi nierówny” — nie ma jednej cudownej terapii, ale właśnie dlatego mamy większe szanse go pokonać. Na końcu, tuż przed posłowiem, znajduje się jeszcze jeden bardzo ważny rozdział: PROFILAKTYKA. Warto go dokładnie przeczytać i się nad nim zastanowić… Czy polecam książkę? Zdecydowanie tak — bo wiele wyjaśnia i rozwiewa wątpliwości. Nie musimy się panicznie bać. Wiemy, co robić. 😉
LLM w projektowaniu oprogramowania. Tworzenie inteligentnych aplikacji i agentów z wykorzystaniem dużych modeli językowych
Recenzja książki „LLM w projektowaniu oprogramowania” 16/07/2025 Wiesław SewerynLeave a comment Obserwujemy ważną zmianę w oprogramowaniu, które nas otacza. Dotyczy to nie tylko techniki samego programowania, pisania programu, choć ten aspekt jest najbardziej nagłaśniany, zwłaszcza w kontekście „pracy dla programistów”. Wiadomo, programista istota leniwa, szuka ułatwień dla swojego codziennego znoju. Sztuczna inteligencja jako asystent pisania i testowania programu to nader pożyteczny wynalazek. Ale to tylko niewielka część zmian w informatyce, której źródłem jest AI. Prawdziwa rewolucja dotyczy sposobu przetwarzania informacji. Przyzwyczailiśmy się do tego, że program komputerowy działa jak zdeterminowana maszynka logiczna. Wprowadzasz jakieś dane, komputer przetworzy te dane według zaprogramowanych reguł i wypluje odpowiedź. Za każdym razem taką samą. Determinizm działania to immanentna cecha każdego programu. Naprawdę trudno sobie wyobrazić, że komputer będzie różnie odpowiadał na zadane pytanie lub różnie wykonywał postawione zadanie. Na razie zmienia się sposób projektowania/programowania aplikacji, które stają się mniej hermetyczne, bardziej elastyczne w interakcji i coraz częściej pełnią rolę pomocnika/asystenta niż bezpośredniego wykonawcy. Rewolucja informacyjna zapoczątkowana przez LLM-y, czyli duże modele językowe, powoduje, że sposób „myślenia” programu komputerowego zbliża się do sposobu myślenia człowieka; w jednym i drugim przypadku przetwarza się informację niestrukturalną, język potoczny, zawierający nieścisłości, braki i błędy zarówno na wejściu jak i generowane na wyjściu. Czy chcemy tego, czy nie, wokół nas rośnie prawdziwy ekosystem informatyczny (i informacyjny), z którym trzeba będzie jakoś żyć. Można też powiedzieć, że zachodzi zmiana paradygmatu programowania. Dotychczasowy zestaw paradygmatów (programowanie imperatywne, obiektowe (OOP), funkcyjne, logiczne, deklaratywne, zdarzerzeniowe… i kilka innych) został rozszerzony o programowanie sterowane danymi, którego formuła wydaje się idealnie pasować do systemów eksperckich opartych o LLM i duże zbiory nieuporządkowanych lub częściowo uporządkowanych danych. Książka „LLM w projektowaniu oprogramowania. Tworzenie inteligentnych aplikacji i agentów z wykorzystaniem dużych modeli językowych” Valentiny Alto traktuje o nowoczesnych zastosowaniach dużych modeli językowych (LLM) w nowych klasach „inteligentnych” urządzeń i aplikacji. Cudzysłów w słowie „inteligentny” oznacza, że oprogramowanie sterujące tymi urządzeniami posiada cechy właściwe sztucznej inteligencji, nie jest to w żaden sposób dezawuowanie ich wyjątkowości. Zamiarem Autorki było napisanie przewodnika dla osób pragnących zdobyć wiedzę (albo jej przyczółki) na temat praktycznego wykorzystania sztucznej inteligencji w tworzenia nowoczesnego oprogramowania. Pierwszy rozdział książki jest wprowadzeniem do LLM. To oczywiste, ponieważ większość książek o AI zaczyna od podstaw, tokenizacji, osadzania, propagacji wstecznej, prawdopodobieństwa, twierdzenia Bayesa, czyli jazdy obowiązkowej. Rozdział drugi omawia udział dużych modeli językowych w tworzeniu oprogramowania. Dotychczasowe, klasyczne oprogramowanie było w pewnym sensie samowystarczalne, a programista (lub zespół) powinien posiąść pełnię wiedzy w dziedzinie, którą oprogramowują. Systemy, w których są osadzone LLM nie są tworzone od podstaw. Zakłada się a priori, że poważna część wiedzy potrzebnej do działania programu będzie wydobywana z osadzonego modelu językowego. Mówiąc prościej, programista programuje „portal” do skarbnicy wiedzy. LLM jest wsparciem merytorycznym dla systemu, zapleczem wiedzowym. Taką ideę wspierającej roli sztucznej inteligencji w systemie informatycznym autorka przedstawia na przykładzie znanego powszechnie systemu copilot oraz mniej znanego systemu LangChain, który jest otwartoźródłowym frameworkiem przeznaczonym dla systemów pisanych w Pythonie lub JS/TS (JavaScript/TypeScript). Wybór frameworku jest sporym wyzwaniem dla programisty, zwłaszcza, że branża jest nowa i nie ma zdecydowanego lidera, który zapewniałby solidne wsparcie podczas całego czasu życia oprogramowania. Dużo większym problemem jest wybór modelu językowego. Liczące się LLM-y różnią się w zasadzie wszystkim, od architektury poczynając, po wielkość (liczbę miliardów parametrów) i dane, na których zostały wytrenowane. Wybór modelu będzie miał duże znaczenie dla przyszłego działania projektowanego systemu, jego jakość, wydajność i koszt. Trzeci rozdział porównuje znane modele językowe, zarówno te własnościowe (z zamkniętym, nieujawnionym kodem źródłowym) jak i otwartoźródłowe. Znany powszechnie model GPT-4 (premiera marzec 2023) udostępniony przez firmę OpenAI należy do tej pierwszej grupy, podobnie jak Gemini 1.5 wydany przez firmę Google. Na drugim, otwartoźródłowym biegunie znajduje się m.in. model Llama 2 wydany przez firmę Meta, właściciela Facebooka. Rozdział 4 objaśnia znaczenie tzw. prompt engineeringu, czyli sztuki wydawania poleceń (lub zadawania pytań) sztucznej inteligencji. Niby oczywiste, a warto przeczytać. Bo na głupie pytanie głupia odpowiedź, jak mawiali starożytni. Od rozdziału piątego zaczynają się programistyczne konkrety, czyli np. „Osadzanie dużych modeli językowych w aplikacjach”, „Tworzenie aplikacji konwersacyjnych”. W rozdziale 9 Autorka porusza problem bolesny dla prawie wszystkich programistów: czy ich eldorado (finansowe) skończy się szybko, czy jeszcze trochę potrwa, czyli kiedy sztuczna inteligencja zastąpi programistów w „klepaniu kodu”? Przedostatni, jedenasty rozdział porusza bardzo ważny problem. Otóż, przygotowując specjalistyczną aplikację, powiedzmy medyczno-diagnostyczną, na pewno zastanowimy się, czy na pewno LLM wyszkolony na źródłach ogólnych, poradzi sobie z odpowiedzialną odpowiedzią na specjalistyczne pytania, od której będzie zależało życie pacjenta albo zastosowana terapia? Czy nie warto jednak podszkolić model językowy w wąskiej specjalizacji, do której będzie używany i uczyć go permanentnie? Jak to zrobić? Bo w celowość tworzenia takich wyspecjalizowanych modeli chyba nie wątpimy. Takie działanie nazywamy dostrajaniem dużych modeli językowych. Oznacza to, że wiedza zdobyta przez model będzie traktowana jako stan podstawowy, baza do wytrenowania nowej, specjalistycznej sieci neuronowej. Rozdział ostatni to bardzo potrzebne rozważania Autorki na temat odpowiedzialności sztucznej inteligencji, a raczej naszej odpowiedzialności ZA sztuczną inteligencję. Warto przeczytać i zastanowić się, to nie jest zwykłe moralizatorstwo. Niniejszy tekst miał być recenzją, miał podbijać zalety książki i piętnować wady. Posłużył jednak za pretekst do skrótowego przedstawienia różnych aspektów dużych modeli językowych z punktu widzenia twórców aplikacji nowej ery. Ocenę pozostawiam Czytelnikom. Ja tę książkę przeczytałem, wiele rzeczy zrozumiałem i dlatego uważam, że jest pozycją użyteczną i wartą znalezienia się na mojej półce papierowych książek. Valentina Alto „LLM w projektowaniu oprogramowania. Tworzenie inteligentnych aplikacji i agentów z wykorzystaniem dużych modeli językowych”. Wydawnictwo Helion 2025. Notka o Autorce Valentina Alto jest inżynierem oprogramowania w firmie Microsoft. Od 2022 zajmuje się wdrożeniami rozwiązań AU w branży farmaceutycznej a także frameworkami i platformami IoT (Internet of Things), Azure Machine Learning i Azure Cognitive Services. Tworzy też konkretne rozwiązania Power BI. Jest autorką książek i artykułów technicznych.
Makra i VBA w tydzień. Odkryj potęgę programowania!
Programowanie w VBA to taki mały sekret efektywności w pracy z Excelem. Kiedy raz zrozumiesz, jak działa, trudno sobie wyobrazić powrót do ręcznego przetwarzania danych. Zamiast powtarzać te same operacje w nieskończoność, piszesz kod, klikasz „uruchom” - i gotowe. Dla kogoś, kto pracuje z arkuszami na co dzień, to jak złapanie supermocy. „Makra i VBA w tydzień” to krótki, ale treściwy kurs, który krok po kroku prowadzi przez podstawy i praktyczne przykłady - od uruchamiania edytora, przez analizę kodu z rejestratora makr, aż po pisanie własnych skryptów. Każdy rozdział to kolejna dawka wiedzy podanej zrozumiale i konkretnie. Gdy książka do mnie dotarła, byłam naprawdę zaskoczona jej grubością - jest bardzo cienka. Jednak okazało się, że to jej ogromny plus. Publikacja zwiera same konkrety! Zero zbędnych historii, zero dygresji - tylko wiedza, instrukcje, porady, przykłady. Czytasz, odpalasz Excela, testujesz - działa. Czuć, że autor zna temat od podszewki. Opisuje sytuacje, które naprawdę się zdarzają - błędy, na które można się natknąć, i sposoby, jak sobie z nimi radzić. Nie znajdziesz tu pustych definicji ani marketingowego bełkotu. Jest za to praktyka - jak pisać funkcje, jak ułatwiać sobie życie i przy tym go nie komplikować. Ogromną zaletą książki jest też jej forma wizualna. Mnóstwo screenów z Excela sprawia, że wszystko staje się zrozumiałe nawet dla początkujących. Każdy krok jest zilustrowany - nie musisz się domyślać, jak coś wygląda ani błądzić po omacku. To nauka przez działanie - i to działa! Z mojego punktu widzenia to idealna pozycja na start. Jeśli chcesz wejść w temat, ale nie masz czasu na setki stron i akademickie podejście - ta książka jest dla Ciebie. Wiedza, którą zyskasz, naprawdę przyda się w codziennej pracy. Już po kilku rozdziałach miałam w głowie gotowe pomysły, jak usprawnić swoje pliki. Podsumowując - to nie jest książka dla tych, którzy chcą filozofować o programowaniu. To tytuł dla tych, którzy chcą działać. Jeśli chcesz się nauczyć automatyzacji w Excelu szybko, konkretnie i bez stresu - „Makra i VBA w tydzień” to świetny wybór. Sprawdź, jak w siedem dni możesz zyskać narzędzie, które naprawdę zmienia sposób pracy.
Reguła 80/20 i pozostałe teorie sukcesu. Naukowe podstawy: od teorii gier po punkt zwrotny
Reguła 80/20 i pozostałe teorie sukcesu - Naukowe podstawy od teorii gier po punkt zwroty - Richard Koch - Wydawnictwo OnePress Motywująca Inspirująca Droga do sukcesu Binzes Psychologia Bogacenie się Jeśli szukacie sposoby na sukces, kartka po kartce odkrywamy kolejne prawa zagadnienia biznesowe, sposobu bogacenia się, zysków, rozwoju.