<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
<channel>
  <title>Paweł Dubiel Tech Blog</title>
  <link>https://paweldubiel.com</link>
  <atom:link href="https://paweldubiel.com/rss.xml" rel="self" type="application/rss+xml" />
  <description>A public digital garden about AI, software engineering, books, and learning.</description>
  <language>pl-PL</language>
  <lastBuildDate>Sun, 26 Apr 2026 00:00:00 GMT</lastBuildDate>
<item>
  <title>42ah1⁝ Scaling Laws</title>
  <link>https://paweldubiel.com/notes/42ah1%E2%81%9D%20Scaling%20Laws</link>
  <guid>https://paweldubiel.com/notes/42ah1%E2%81%9D%20Scaling%20Laws</guid>
  <pubDate>Sun, 26 Apr 2026 00:00:00 GMT</pubDate>
  <description>Scaling laws w LLM to empiryczne zależności mówiące, jak jakość modelu zmienia się wraz ze wzrostem liczby parametrów, ilości danych i budżetu obliczeniowego. W praktyce opisują one, że większy model trenowany na większe</description>
</item>
<item>
  <title>42ah10⁝ Universal Representations I Universal Phenomena</title>
  <link>https://paweldubiel.com/notes/42ah10%E2%81%9D%20Universal%20Representations%20I%20Universal%20Phenomena</link>
  <guid>https://paweldubiel.com/notes/42ah10%E2%81%9D%20Universal%20Representations%20I%20Universal%20Phenomena</guid>
  <pubDate>Sun, 26 Apr 2026 00:00:00 GMT</pubDate>
  <description>różne modele, trenowane niezależnie, często uczą się podobnych wewnętrznych struktur, cech i mechanizmów. Czyli np. dwa różne LLM y mogą mieć inne wagi, inną architekturę, inny tokenizer i inny rozmiar, ale mimo to w śro</description>
</item>
<item>
  <title>42ah2⁝ Edge Of Stability</title>
  <link>https://paweldubiel.com/notes/42ah2%E2%81%9D%20Edge%20Of%20Stability</link>
  <guid>https://paweldubiel.com/notes/42ah2%E2%81%9D%20Edge%20Of%20Stability</guid>
  <pubDate>Sun, 26 Apr 2026 00:00:00 GMT</pubDate>
  <description>Edge of stability to zjawisko w treningu sieci neuronowych, gdzie &quot; loss landscape sharpness .&quot; zwykle mierzona największą wartością własną Hessian matrix , utrzymuje się blisko granicy gdzie η to learning rate. Innymi s</description>
</item>
<item>
  <title>42ah4⁝ Neural Feature Ansatz</title>
  <link>https://paweldubiel.com/notes/42ah4%E2%81%9D%20Neural%20Feature%20Ansatz</link>
  <guid>https://paweldubiel.com/notes/42ah4%E2%81%9D%20Neural%20Feature%20Ansatz</guid>
  <pubDate>Sun, 26 Apr 2026 00:00:00 GMT</pubDate>
  <description>Neural Feature Ansatz NFA to hipoteza w teorii głębokiego uczenia, która opisuje, jak sieci neuronowe &quot;uczą się&quot; cech z danych. Mówi, że po nauczeniu macierz Grama wag pierwszej warstwy jest proporcjonalna do pewnej potę</description>
</item>
<item>
  <title>42ah4a⁝ Grokking</title>
  <link>https://paweldubiel.com/notes/42ah4a%E2%81%9D%20Grokking</link>
  <guid>https://paweldubiel.com/notes/42ah4a%E2%81%9D%20Grokking</guid>
  <pubDate>Sun, 26 Apr 2026 00:00:00 GMT</pubDate>
  <description>Grokking w uczeniu maszynowym to zjawisko, w którym model najpierw wydaje się tylko zapamiętywać dane treningowe ma bardzo niski błąd na uczących, ale słabo generalizuje , a po długim czasie treningu nagle zaczyna dużo l</description>
</item>
<item>
  <title>42ah5⁝ Critical Batch Size</title>
  <link>https://paweldubiel.com/notes/42ah5%E2%81%9D%20Critical%20Batch%20Size</link>
  <guid>https://paweldubiel.com/notes/42ah5%E2%81%9D%20Critical%20Batch%20Size</guid>
  <pubDate>Sun, 26 Apr 2026 00:00:00 GMT</pubDate>
  <description>Dotyczy granicy, po której zwiększanie batch size poprawia throughput, ale zaczyna szkodzić efektywności tokenowej. Najnowsze prace badają to bezpośrednio dla pretrainingu modeli językowych, np. OLMo 1B/7B. 42ah⁝ Czy moż</description>
</item>
<item>
  <title>42ah6⁝ µP I Transfer Hyperparametrów</title>
  <link>https://paweldubiel.com/notes/42ah6%E2%81%9D%20%C2%B5P%20I%20Transfer%20Hyperparametr%C3%B3w</link>
  <guid>https://paweldubiel.com/notes/42ah6%E2%81%9D%20%C2%B5P%20I%20Transfer%20Hyperparametr%C3%B3w</guid>
  <pubDate>Sun, 26 Apr 2026 00:00:00 GMT</pubDate>
  <description>µP mówi: dobierz parametryzację tak, aby optymalne hyperparametry przenosiły się z małego modelu na duży. To jest bardzo istotne dla LLM, bo pozwala stroić małe proxy modele zamiast pełnych drogich runów 42ah⁝ Czy możemy</description>
</item>
<item>
  <title>42ah7⁝ Implicit Regularization Przez Hyperparametry</title>
  <link>https://paweldubiel.com/notes/42ah7%E2%81%9D%20Implicit%20Regularization%20Przez%20Hyperparametry</link>
  <guid>https://paweldubiel.com/notes/42ah7%E2%81%9D%20Implicit%20Regularization%20Przez%20Hyperparametry</guid>
  <pubDate>Sun, 26 Apr 2026 00:00:00 GMT</pubDate>
  <description>Learning rate, batch size, weight decay, scheduler itd. wpływają nie tylko na szybkość uczenia, ale też na rozwiązanie, do którego model dochodzi. 42ah⁝ Czy możemy zbudować teorię fizyki procesu uczenia, która przewiduje</description>
</item>
<item>
  <title>42ah8⁝ Lazy Learning Vs Rich Learning</title>
  <link>https://paweldubiel.com/notes/42ah8%E2%81%9D%20Lazy%20Learning%20Vs%20Rich%20Learning</link>
  <guid>https://paweldubiel.com/notes/42ah8%E2%81%9D%20Lazy%20Learning%20Vs%20Rich%20Learning</guid>
  <pubDate>Sun, 26 Apr 2026 00:00:00 GMT</pubDate>
  <description>Rama teoretyczna do opisu reżimu uczenia. W kontekście dużych sieci/transformerów j 42ah⁝ Czy możemy zbudować teorię fizyki procesu uczenia, która przewiduje makroskopowe zachowania sieci?</description>
</item>
<item>
  <title>w LLM-ach koszt treningu jest ogromny. Mamy trzy ograniczenia:</title>
  <link>https://paweldubiel.com/notes/42ah9%E2%81%9D%20Learning%20Rate%20-%20Batch%20Size%20Scaling%20Rules</link>
  <guid>https://paweldubiel.com/notes/42ah9%E2%81%9D%20Learning%20Rate%20-%20Batch%20Size%20Scaling%20Rules</guid>
  <pubDate>Sun, 26 Apr 2026 00:00:00 GMT</pubDate>
  <description>Jeśli zmieniam batch size, czyli liczbę przykładów/tokenów używanych w jednym kroku treningowym, to zwykle musz´ też zmienić learning rate, żeby trening nadal był stabilny i efektywny. Co robi learning rate? LR Learning </description>
</item>
<item>
  <title>42ah⁝ Czy możemy zbudować teorię fizyki procesu uczenia, która przewiduje makroskopowe zachowania sieci?</title>
  <link>https://paweldubiel.com/notes/42ah%E2%81%9D%20Czy%20mo%C5%BCemy%20zbudowa%C4%87%20teori%C4%99%20fizyki%20procesu%20uczenia%2C%20kt%C3%B3ra%20przewiduje%20makroskopowe%20zachowania%20sieci</link>
  <guid>https://paweldubiel.com/notes/42ah%E2%81%9D%20Czy%20mo%C5%BCemy%20zbudowa%C4%87%20teori%C4%99%20fizyki%20procesu%20uczenia%2C%20kt%C3%B3ra%20przewiduje%20makroskopowe%20zachowania%20sieci</guid>
  <pubDate>Sat, 25 Apr 2026 00:00:00 GMT</pubDate>
  <description>To jest ciekawy manifest, który moim zdaniem wyzywa do tego, aby skończyć udawać, że deep learning to tylko empiryczna inżynieria, gdzie najlepszą metodą jest odpalić 100 eksperymentów i zobaczyć, co zadziała. Zaczynamy </description>
</item>
<item>
  <title>42ag⁝ Trendslop AI</title>
  <link>https://paweldubiel.com/notes/42ag%E2%81%9D%20Trendslop%20AI</link>
  <guid>https://paweldubiel.com/notes/42ag%E2%81%9D%20Trendslop%20AI</guid>
  <pubDate>Fri, 17 Apr 2026 00:00:00 GMT</pubDate>
  <description>Wokół AI narosło i ciągle narasta dużo magicznego myślenia. Jedni traktują model jak mądrzejsze Google. Drudzy jak doradcę strategicznego. Trzeci jak kogoś, kto w końcu powie im prawdę. Tylko to wszystko to jest ściema. </description>
</item>
<item>
  <title>42ag1⁝ AI do legitymizacji decyzji przykład</title>
  <link>https://paweldubiel.com/notes/42ag1%E2%81%9D%20AI%20do%20legitymizacji%20decyzji%20przyk%C5%82ad</link>
  <guid>https://paweldubiel.com/notes/42ag1%E2%81%9D%20AI%20do%20legitymizacji%20decyzji%20przyk%C5%82ad</guid>
  <pubDate>Fri, 17 Apr 2026 00:00:00 GMT</pubDate>
  <description>Chodzi o spór między Kraftonem a Unknown Worlds , studiem od Subnautica . Krafton kupił studio w 2021 roku za 500 mln dolarów z góry, a do tego dorzucił możliwy earnout do 250 mln dolarów , jeśli zostaną spełnione określ</description>
</item>
<item>
  <title>63⁝ Cybercrime</title>
  <link>https://paweldubiel.com/notes/63%E2%81%9D%20Cybercrime</link>
  <guid>https://paweldubiel.com/notes/63%E2%81%9D%20Cybercrime</guid>
  <pubDate>Fri, 17 Apr 2026 00:00:00 GMT</pubDate>
  <description>63a⁝ Cyberbunker dalsza historia miejsca</description>
</item>
<item>
  <title>63a⁝ Cyberbunker dalsza historia miejsca</title>
  <link>https://paweldubiel.com/notes/63a%E2%81%9D%20Cyberbunker%20dalsza%20historia%20miejsca</link>
  <guid>https://paweldubiel.com/notes/63a%E2%81%9D%20Cyberbunker%20dalsza%20historia%20miejsca</guid>
  <pubDate>Fri, 17 Apr 2026 00:00:00 GMT</pubDate>
  <description>Po obejrzeniu filmu Cyberbunker obejrzałem ten dość przeciętny film z wieloletnim poślizgiem miałem kilka pytań, jednym z nich co się teraz dzieje z tym miejscem. Pytań mam więcej, ale o ogólną niespójność historii, dużo</description>
</item>
<item>
  <title>42a5⁝ Claude Opus 4.7</title>
  <link>https://paweldubiel.com/notes/42a5%E2%81%9D%20Claude%20Opus%204.7</link>
  <guid>https://paweldubiel.com/notes/42a5%E2%81%9D%20Claude%20Opus%204.7</guid>
  <pubDate>Thu, 16 Apr 2026 00:00:00 GMT</pubDate>
  <description>Claude Opus 4.7 Premiera Claude Opus 4.7 pokazuje coś, o czym w AI mówi się za mało: sam wzrost benchmarków nie oznacza jeszcze lepszego doświadczenia użytkownika. Na papierze Opus 4.7 wygląda bardzo mocno. Anthropic pod</description>
</item>
<item>
  <title>42a5b⁝ Ekonomia Tokenów</title>
  <link>https://paweldubiel.com/notes/42a5b%E2%81%9D%20Ekonomia%20Token%C3%B3w</link>
  <guid>https://paweldubiel.com/notes/42a5b%E2%81%9D%20Ekonomia%20Token%C3%B3w</guid>
  <pubDate>Thu, 16 Apr 2026 00:00:00 GMT</pubDate>
  <description>Ekonomia Tokenów Ekonomia Tokenów w LLM Large Language Models to zbiór zasad, strategii i modeli opisujących, jak koszty, zarządzanie i wykorzystanie tokenów podstawowych jednostek przetwarzania tekstu wpływają na budżet</description>
</item>
<item>
  <title>42a5a⁝ Claude Opus 4.7 System Card</title>
  <link>https://paweldubiel.com/notes/42a5a%E2%81%9D%20Claude%20Opus%204.7%20System%20Card</link>
  <guid>https://paweldubiel.com/notes/42a5a%E2%81%9D%20Claude%20Opus%204.7%20System%20Card</guid>
  <pubDate>Wed, 15 Apr 2026 00:00:00 GMT</pubDate>
  <description>Claude Opus 4.7 System Card Claude Opus 4.7 to model będący rozwinięciem Opus 4.6. Nie wygląda na nową klasę systemu, ale na wyraźnie dopracowaną wersję z lepszymi wynikami w praktycznych zadaniach, szczególnie w softwar</description>
</item>
<item>
  <title>42a5a1⁝ Test-time Compute</title>
  <link>https://paweldubiel.com/notes/42a5a1%E2%81%9D%20Test-time%20Compute</link>
  <guid>https://paweldubiel.com/notes/42a5a1%E2%81%9D%20Test-time%20Compute</guid>
  <pubDate>Wed, 15 Apr 2026 00:00:00 GMT</pubDate>
  <description>Test time compute TTC w kontekście dużych modeli językowych LLM to dodatkowa moc obliczeniowa wykorzystywana podczas inferencji, czyli generowania odpowiedzi po treningu modelu, a nie w fazie uczenia. Pozwala to modelom </description>
</item>
<item>
  <title>AI w marcu i kwietniu 2026: najważniejsze kierunki rozwoju</title>
  <link>https://paweldubiel.com/notes/33b%E2%81%9D%20Kwiecie%C5%84%20newsy%20AI</link>
  <guid>https://paweldubiel.com/notes/33b%E2%81%9D%20Kwiecie%C5%84%20newsy%20AI</guid>
  <pubDate>Wed, 15 Apr 2026 00:00:00 GMT</pubDate>
  <description>AI w marcu i kwietniu 2026: najważniejsze kierunki rozwoju Wiosną 2026 dyskusja o AI koncentruje się już nie tylko na samych modelach, ale na tym, jak te systemy działają w praktyce: jak bardzo są autonomiczne, jak dobrz</description>
</item>
<item>
  <title>42af⁝ AI Harness</title>
  <link>https://paweldubiel.com/notes/42af%E2%81%9D%20AI%20Harness</link>
  <guid>https://paweldubiel.com/notes/42af%E2%81%9D%20AI%20Harness</guid>
  <pubDate>Mon, 13 Apr 2026 00:00:00 GMT</pubDate>
  <description>Dużo nowych terminów w związku z sieciami LLM powstaje na każdym kroku. A to jest ostatnie które mnie prześladuje na każdym kroku &quot;Harness&quot; przynajmniej od lutego 2026. Po polsku: AI harness to uprząż. Warstwa otaczająca</description>
</item>
<item>
  <title>42af1⁝ Lost in the Middle - How Language Models Use Long Contexts</title>
  <link>https://paweldubiel.com/notes/42af1%E2%81%9D%20Lost%20in%20the%20Middle%20-%20How%20Language%20Models%20Use%20Long%20Contexts</link>
  <guid>https://paweldubiel.com/notes/42af1%E2%81%9D%20Lost%20in%20the%20Middle%20-%20How%20Language%20Models%20Use%20Long%20Contexts</guid>
  <pubDate>Mon, 13 Apr 2026 00:00:00 GMT</pubDate>
  <description>Ten paper sprawdza, czy modele językowe naprawdę dobrze korzystają z długiego kontekstu. Czyli: mamy dużo tekstu, dokumentów albo danych wrzuconych do prompta i pytanie brzmi, czy model potrafi znaleźć ważną informację n</description>
</item>
<item>
  <title>42af2⁝ Anthropic</title>
  <link>https://paweldubiel.com/notes/42af2%E2%81%9D%20Anthropic</link>
  <guid>https://paweldubiel.com/notes/42af2%E2%81%9D%20Anthropic</guid>
  <pubDate>Mon, 13 Apr 2026 00:00:00 GMT</pubDate>
  <description>Anthropic is an AI safety and research company that&apos;s working to build reliable, interpretable, and steerable AI systems. 42af⁝ AI Harness</description>
</item>
<item>
  <title>Mythos (Claude) Model Card</title>
  <link>https://paweldubiel.com/notes/20260408%E2%81%9D%20Mythos%20(Claude)%20Karta%20Modelu%20PL</link>
  <guid>https://paweldubiel.com/notes/20260408%E2%81%9D%20Mythos%20(Claude)%20Karta%20Modelu%20PL</guid>
  <pubDate>Wed, 08 Apr 2026 00:00:00 GMT</pubDate>
  <description>Mythos Claude Model Card PDF cdn.anthropic.com/53566bf5440a10affd749724787c8913a2ae0841.pdf Pierwsza: oni tego modelu normalnie nie wypuścili . To już samo w sobie jest mocne. Anthropic pisze wprost, że Mythos Preview po</description>
</item>
<item>
  <title>Mythos (Claude) Model Card</title>
  <link>https://paweldubiel.com/notes/20260408%E2%81%9D%20Mythos%20(Claude)%20Model%20Card</link>
  <guid>https://paweldubiel.com/notes/20260408%E2%81%9D%20Mythos%20(Claude)%20Model%20Card</guid>
  <pubDate>Wed, 08 Apr 2026 00:00:00 GMT</pubDate>
  <description>Mythos Claude Model Card Claude Mythos Preview Anthropic&apos;s Most Capable Frontier Model April 7, 2026 Status : ❌ Not publicly released deployed only in limited defensive cybersecurity partnerships PDF cdn.anthropic.com/53</description>
</item>
<item>
  <title>42ae⁝ Lokalne modele dostępne z każdego miejsca</title>
  <link>https://paweldubiel.com/notes/42ae%E2%81%9D%20Lokalne%20modele%20dost%C4%99pne%20z%20ka%C5%BCdego%20miejsca</link>
  <guid>https://paweldubiel.com/notes/42ae%E2%81%9D%20Lokalne%20modele%20dost%C4%99pne%20z%20ka%C5%BCdego%20miejsca</guid>
  <pubDate>Wed, 01 Apr 2026 00:00:00 GMT</pubDate>
  <description>Uruchamianie dużych modeli językowych lokalnie ma jeden zasadniczy minus: najmocniejszy sprzęt rzadko jest tym, przy którym akurat siedzimy. Mocne GPU zazwyczaj mieszka w głośnym PC pod biurkiem, a pracować chcemy na lek</description>
</item>
<item>
  <title>42ac⁝ ChatJimmy.ai - 15-17k tokenów na sekundę</title>
  <link>https://paweldubiel.com/notes/42ac%E2%81%9D%20ChatJimmy.ai%20-%2015-17k%20token%C3%B3w%20na%20sekund%C4%99</link>
  <guid>https://paweldubiel.com/notes/42ac%E2%81%9D%20ChatJimmy.ai%20-%2015-17k%20token%C3%B3w%20na%20sekund%C4%99</guid>
  <pubDate>Tue, 31 Mar 2026 00:00:00 GMT</pubDate>
  <description>ChatJimmy.ai 42ac1⁝ Taalas HC1 osiąga 15 17 tys. tokenów/sekundę na Llama 3.1 8B, wypierając GPU dzięki wbudowaniu wag modelu bezpośrednio w krzem mask ROM recall fabric . Eliminuje &quot;memory wall&quot; brak HBM/VRAM, obliczeni</description>
</item>
<item>
  <title>42ad1⁝ StepFun</title>
  <link>https://paweldubiel.com/notes/42ad1%E2%81%9D%20StepFun</link>
  <guid>https://paweldubiel.com/notes/42ad1%E2%81%9D%20StepFun</guid>
  <pubDate>Tue, 31 Mar 2026 00:00:00 GMT</pubDate>
  <description>Kwiecień 2026 StepFun to chińska firma AI z Szanghaju, rozwijająca multimodalne modele bazowe i otwarte modele pod marką stepfun ai . Nazwa: StepFun / 阶跃AI Typ: startup / laboratorium modeli bazowych AI. Założenie: kwiec</description>
</item>
<item>
  <title>42ad⁝ Najbardziej efektywny model dla OpenClaw</title>
  <link>https://paweldubiel.com/notes/42ad%E2%81%9D%20Najbardziej%20efektywny%20model%20dla%20OpenClaw</link>
  <guid>https://paweldubiel.com/notes/42ad%E2%81%9D%20Najbardziej%20efektywny%20model%20dla%20OpenClaw</guid>
  <pubDate>Mon, 30 Mar 2026 00:00:00 GMT</pubDate>
  <description>Gdy ma się pod ręką gotowe, dopracowane ekosystemy od OpenAI czy Anthropic, budowanie własnego &quot;składaka&quot; może wydawać się zbędną gimnastyką. Ma to jednak sens, gdy patrzymy na to przez pryzmat kosztów skali i kontroli n</description>
</item>
<item>
  <title>27g⁝ Mac Ultra, lokalne GPU czy chmura ASIC? Gdzie uruchamiać modele w najbliższych miesiącach</title>
  <link>https://paweldubiel.com/notes/27g%E2%81%9D%20Mac%20Ultra%2C%20lokalne%20GPU%20czy%20chmura%20ASIC%20Gdzie%20uruchamia%C4%87%20modele%20w%20najbli%C5%BCszych%20miesi%C4%85cach</link>
  <guid>https://paweldubiel.com/notes/27g%E2%81%9D%20Mac%20Ultra%2C%20lokalne%20GPU%20czy%20chmura%20ASIC%20Gdzie%20uruchamia%C4%87%20modele%20w%20najbli%C5%BCszych%20miesi%C4%85cach</guid>
  <pubDate>Sun, 29 Mar 2026 00:00:00 GMT</pubDate>
  <description>Ostatnio zastanawiałem się nad różnymi opcjami sprzętowymi do lokalnego hostowania i serwowania modeli językowych. Wydać X tysięcy na Maca Ultra, czy może złożyć mocną stację roboczą z kilkoma kartami graficznymi? Im dłu</description>
</item>
<item>
  <title>42ac1⁝ Taalas</title>
  <link>https://paweldubiel.com/notes/42ac1%E2%81%9D%20Taalas</link>
  <guid>https://paweldubiel.com/notes/42ac1%E2%81%9D%20Taalas</guid>
  <pubDate>Sun, 29 Mar 2026 00:00:00 GMT</pubDate>
  <description>Taalas to kanadyjski startup z Toronto, specjalizujący się w tworzeniu niestandardowych chipów AI poprzez &quot;utwardzanie&quot; modeli sztucznych inteligencji bezpośrednio w krzemie. 42ac1a⁝ ASIC Firma założona około 2023 2024 r</description>
</item>
<item>
  <title>42ac1a⁝ ASIC</title>
  <link>https://paweldubiel.com/notes/42ac1a%E2%81%9D%20ASIC</link>
  <guid>https://paweldubiel.com/notes/42ac1a%E2%81%9D%20ASIC</guid>
  <pubDate>Sun, 29 Mar 2026 00:00:00 GMT</pubDate>
  <description>ASIC Application Specific Integrated Circuit to układ scalony zaprojektowany i zoptymalizowany pod konkretne zadanie, w przeciwieństwie do uniwersalnych procesorów jak CPU czy GPU. 42ac1⁝ Taalas</description>
</item>
<item>
  <title>27f⁝ AMD Ryzen 9 9950X3D2</title>
  <link>https://paweldubiel.com/notes/27f%E2%81%9D%20AMD%20Ryzen%209%209950X3D2</link>
  <guid>https://paweldubiel.com/notes/27f%E2%81%9D%20AMD%20Ryzen%209%209950X3D2</guid>
  <pubDate>Sat, 28 Mar 2026 00:00:00 GMT</pubDate>
  <description>AMD potwierdziło, że premiera procesora AMD Ryzen 9 9950X3D2 Dual Edition odbędzie się 22 kwietnia 2026 roku. Poprzednie topowe układy AMD z pamięcią 3D V Cache często wymagały od systemu operacyjnego specyficznego podej</description>
</item>
<item>
  <title>42aa⁝ Bezpieczne uruchamianie agentów AI wymaga izolacji od reszty systemu - nowe narzędzie Jai</title>
  <link>https://paweldubiel.com/notes/42aa%E2%81%9D%20Bezpieczne%20uruchamianie%20agent%C3%B3w%20AI%20wymaga%20izolacji%20od%20reszty%20systemu%20-%20nowe%20narz%C4%99dzie%20Jai</link>
  <guid>https://paweldubiel.com/notes/42aa%E2%81%9D%20Bezpieczne%20uruchamianie%20agent%C3%B3w%20AI%20wymaga%20izolacji%20od%20reszty%20systemu%20-%20nowe%20narz%C4%99dzie%20Jai</guid>
  <pubDate>Sat, 28 Mar 2026 00:00:00 GMT</pubDate>
  <description>W kontekście AI bezpieczeństwa mówi się o problemie związanym z agentami AI, takimi jak Claude Code czy Cursor. Dajemy im dostęp do naszych maszyn, żeby przyspieszyć pracę i zautomatyzować zadania, ale skutki mogą być op</description>
</item>
<item>
  <title>42ab⁝ Mathematical methods and human thought in the age of AI - NOTKA</title>
  <link>https://paweldubiel.com/notes/42ab%E2%81%9D%20Mathematical%20methods%20and%20human%20thought%20in%20the%20age%20of%20AI%20-%20NOTKA</link>
  <guid>https://paweldubiel.com/notes/42ab%E2%81%9D%20Mathematical%20methods%20and%20human%20thought%20in%20the%20age%20of%20AI%20-%20NOTKA</guid>
  <pubDate>Sat, 28 Mar 2026 00:00:00 GMT</pubDate>
  <description>Nie znalazłem w tekście szczególnie radykalnych tez. To raczej synteza znanych kwestii wokół AI niż próba zbudowania całkowicie nowych koncepcji. Jest tam jednak jedna interesująca rzecz. Autorzy przyrównują AI do pewneg</description>
</item>
<item>
  <title>27 Hardware</title>
  <link>https://paweldubiel.com/notes/27%20Hardware</link>
  <guid>https://paweldubiel.com/notes/27%20Hardware</guid>
  <pubDate>Fri, 27 Mar 2026 00:00:00 GMT</pubDate>
  <description>27g⁝ Mac Ultra, lokalne GPU czy chmura ASIC? Gdzie uruchamiać modele w najbliższych miesiącach 27f⁝ AMD Ryzen 9 9950X3D2</description>
</item>
<item>
  <title>27f1⁝ CCD (AMD)</title>
  <link>https://paweldubiel.com/notes/27f1%E2%81%9D%20CCD%20(AMD)</link>
  <guid>https://paweldubiel.com/notes/27f1%E2%81%9D%20CCD%20(AMD)</guid>
  <pubDate>Fri, 27 Mar 2026 00:00:00 GMT</pubDate>
  <description>CCD CCD w procesorach AMD Ryzen / EPYC to fizyczny „chiplecik” z rdzeniami CPU mały osobny kawałek krzemu zawierający rdzenie i ich cache L3, który jest jednym z klocków składających się na cały procesor Zamiast jednego </description>
</item>
<item>
  <title>27f1a⁝ EPYC</title>
  <link>https://paweldubiel.com/notes/27f1a%E2%81%9D%20EPYC</link>
  <guid>https://paweldubiel.com/notes/27f1a%E2%81%9D%20EPYC</guid>
  <pubDate>Fri, 27 Mar 2026 00:00:00 GMT</pubDate>
  <description>EPYC EPYC to marka serwerowych procesorów AMD linia CPU na architekturze Zen zaprojektowana specjalnie do serwerów, centrów danych i zastosowań enterprise konkurencja dla Intel Xeon EPYC to „pełne wykorzystanie” architek</description>
</item>
<item>
  <title>27f2⁝ TDP</title>
  <link>https://paweldubiel.com/notes/27f2%E2%81%9D%20TDP</link>
  <guid>https://paweldubiel.com/notes/27f2%E2%81%9D%20TDP</guid>
  <pubDate>Fri, 27 Mar 2026 00:00:00 GMT</pubDate>
  <description>TDP TDP Thermal Design Power to wartość w watach mówiąca, ile ciepła procesor lub GPU może generować w typowym, „projektowym” obciążeniu i jaką ilość musi być w stanie odprowadzić system chłodzenia TDP a pobór mocy TDP j</description>
</item>
<item>
  <title>27f3⁝ L2 Cache</title>
  <link>https://paweldubiel.com/notes/27f3%E2%81%9D%20L2%20Cache</link>
  <guid>https://paweldubiel.com/notes/27f3%E2%81%9D%20L2%20Cache</guid>
  <pubDate>Fri, 27 Mar 2026 00:00:00 GMT</pubDate>
  <description>L2 cache L2 cache pamięć podręczna poziomu 2 to szybka pamięć SRAM w procesorze, pośrednia warstwa między bardzo małym, ultraszybkim L1 a dużo wolniejszym RAM‑em. Gdzie jest L2 w hierarchii CPU ma zwykle kilka poziomów c</description>
</item>
<item>
  <title>27f4⁝ L3 Cache</title>
  <link>https://paweldubiel.com/notes/27f4%E2%81%9D%20L3%20Cache</link>
  <guid>https://paweldubiel.com/notes/27f4%E2%81%9D%20L3%20Cache</guid>
  <pubDate>Fri, 27 Mar 2026 00:00:00 GMT</pubDate>
  <description>L3 Cache L3 cache pamięć podręczna poziomu 3 to największa, najwolniejsza z wewnętrznych cache CPU, zwykle współdzielona między wieloma rdzeniami i pełniąca rolę „ostatniego poziomu” przed wyjściem do RAM. Rola L3 w hier</description>
</item>
<item>
  <title>33 News AI</title>
  <link>https://paweldubiel.com/notes/33%20News%20AI</link>
  <guid>https://paweldubiel.com/notes/33%20News%20AI</guid>
  <pubDate>Sun, 22 Mar 2026 00:00:00 GMT</pubDate>
  <description>33b⁝ Kwiecień newsy AI 33a⁝ 16 22 marca 2026 newsy sztuczna inteligencja</description>
</item>
<item>
  <title>33a⁝  16 - 22 marca 2026 newsy sztuczna inteligencja</title>
  <link>https://paweldubiel.com/notes/33a%E2%81%9D%2016%20-%2022%20marca%202026%20newsy%20sztuczna%20inteligencja</link>
  <guid>https://paweldubiel.com/notes/33a%E2%81%9D%2016%20-%2022%20marca%202026%20newsy%20sztuczna%20inteligencja</guid>
  <pubDate>Sun, 22 Mar 2026 00:00:00 GMT</pubDate>
  <description>Najważniejsze jest to, że ten tydzień 16 22 marca 2026 w AI był zdominowany przez ogłoszenia NVIDII na GTC 2026, duże ruchy kadrowo‑inwestycyjne w Big Tech oraz dalszą regulację AI w UE, a w Polsce dyskusję o słabości lo</description>
</item>
<item>
  <title>Corrigibility (Korygowalność) w AI</title>
  <link>https://paweldubiel.com/notes/42z%E2%81%9D%20Corrigibility%20-%20Korygowalno%C5%9B%C4%87%20w%20AI</link>
  <guid>https://paweldubiel.com/notes/42z%E2%81%9D%20Corrigibility%20-%20Korygowalno%C5%9B%C4%87%20w%20AI</guid>
  <pubDate>Sun, 22 Mar 2026 00:00:00 GMT</pubDate>
  <description>Corrigibility Korygowalność w AI Ostatnio natknąłem się na ciekawy termin, który opisuje jeden z fundamentalnych problemów w badaniach nad bezpieczeństwem sztucznej inteligencji – mowa o korygowalności ang. corrigibility</description>
</item>
<item>
  <title>Przyszłość w dużej mierze należy do ekspertów, którzy potrafią wykorzystać AI.</title>
  <link>https://paweldubiel.com/notes/42y%E2%81%9D%20Okres%20przej%C5%9Bciowy%20-%20Nachodzi%20era%20ekspert%C3%B3w</link>
  <guid>https://paweldubiel.com/notes/42y%E2%81%9D%20Okres%20przej%C5%9Bciowy%20-%20Nachodzi%20era%20ekspert%C3%B3w</guid>
  <pubDate>Sun, 22 Mar 2026 00:00:00 GMT</pubDate>
  <description>Połączenie specjalisty z głęboką wiedzą w swojej wąskiej branży oraz nowoczesnego AI takiego jak Claude Code powoli zdeklasuje generyczne oprogramowanie. Inżynier z Houston, który zawstydził programistów Natknąłem się na</description>
</item>
<item>
  <title>42w⁝ Research Papers Problems</title>
  <link>https://paweldubiel.com/notes/42w%E2%81%9D%20Research%20Papers%20Problems</link>
  <guid>https://paweldubiel.com/notes/42w%E2%81%9D%20Research%20Papers%20Problems</guid>
  <pubDate>Fri, 20 Mar 2026 00:00:00 GMT</pubDate>
  <description>I have a slightly odd hobby. I like reading old papers in computer science and then comparing them with what scientists produce today. Take Shannon, for example. When you read such paper or similar, you often feel a kind</description>
</item>
<item>
  <title>42x⁝ Odpalenie molocha na laptopie - Qwen 397B lokalnie na MacBooku Pro</title>
  <link>https://paweldubiel.com/notes/42x%E2%81%9D%20Odpalenie%20molocha%20na%20laptopie%20-%20Qwen%20397B%20lokalnie%20na%20MacBooku%20Pro</link>
  <guid>https://paweldubiel.com/notes/42x%E2%81%9D%20Odpalenie%20molocha%20na%20laptopie%20-%20Qwen%20397B%20lokalnie%20na%20MacBooku%20Pro</guid>
  <pubDate>Fri, 20 Mar 2026 00:00:00 GMT</pubDate>
  <description>Wpadłem na niezwykle ciekawy projekt udostępniony przez Dana Woodsa , który udowadnia, że lokalna sztuczna inteligencja na domowym sprzęcie wchodzi na zupełnie nowy poziom. Dan wziął na warsztat pracę badawczą Apple sprz</description>
</item>
<item>
  <title>KV-cache scaling problem in LLM inference</title>
  <link>https://paweldubiel.com/notes/42v1%E2%81%9D%20KV-cache%20scaling%20problem%20in%20LLM%20inference</link>
  <guid>https://paweldubiel.com/notes/42v1%E2%81%9D%20KV-cache%20scaling%20problem%20in%20LLM%20inference</guid>
  <pubDate>Sun, 15 Mar 2026 00:00:00 GMT</pubDate>
  <description>KV cache scaling problem in LLM inference Core idea During autoregressive decoding, KV cache introduces a second fundamental scaling limit independent of model weights. While weight streaming creates a constant bandwidth</description>
</item>
<item>
  <title>42t⁝ Nie będzie buntu maszyn. Zamiast tego sami oddamy im stery</title>
  <link>https://paweldubiel.com/notes/42t%E2%81%9D%20Nie%20b%C4%99dzie%20buntu%20maszyn.%20Zamiast%20tego%20sami%20oddamy%20im%20stery</link>
  <guid>https://paweldubiel.com/notes/42t%E2%81%9D%20Nie%20b%C4%99dzie%20buntu%20maszyn.%20Zamiast%20tego%20sami%20oddamy%20im%20stery</guid>
  <pubDate>Sat, 14 Mar 2026 00:00:00 GMT</pubDate>
  <description>my repost from linkedin Pewnie na każdego, kto dłużej na co dzień pracuje z LLM, przychodzi w końcu ta jedna, niepokojąca refleksja: Kto tu właściwie jest narzędziem AI czy my? Dziś chętnie oddajemy decyzje maszynom, bo </description>
</item>
<item>
  <title>KV-cache scaling problem in LLM inference</title>
  <link>https://paweldubiel.com/notes/kv_cache_scaling_problem</link>
  <guid>https://paweldubiel.com/notes/kv_cache_scaling_problem</guid>
  <pubDate>Sat, 14 Mar 2026 00:00:00 GMT</pubDate>
  <description>KV cache scaling problem in LLM inference Core idea During autoregressive decoding, KV cache introduces a second fundamental scaling limit independent of model weights. While weight streaming creates a constant bandwidth</description>
</item>
</channel>
</rss>