Witaj Reader! Koniec drugiego tygodnia stycznia przynosi ważne doniesienia z dziedziny zastosowań AI w medycynie - dwa przełomowe badania pokazują, jak sztuczna inteligencja może pomóc w walce z rakiem. Jednocześnie obserwujemy postęp w dziedzinie samej technologii AI - naukowcy z Uniwersytetu w Bonn opracowali nową metodę trenowania sieci neuronowych, która może znacząco zmniejszyć zużycie energii przez systemy AI. A Chat GPT dostał nową funkcję. Ale zanim przejdziemy do bieżących wiadomości informacja na temat warsztatu "Efektywne korzystanie z Claude'a": miejsca skończyły się dziś rano. Zainteresowanie przeszło moje oczekiwania! W odpowiedzi na pytania, które otrzymałem: nie przewiduję publikacji nagrania z tego warsztatu, bo to pierwszy warsztat i z całą pewnością wiele rzeczy będę chciał następnym razem zrobić lepiej. Poza tym przygotowuję pełnowymiarowe szkolenie "Efektywne korzystanie z Claude AI" - szczegóły wkrótce. A teraz wiadomości - poczynając od moim zdaniem najważniejszych. 🧠 Titans: Google Research przedstawia nowe podejście do pamięci w modelach AIZespół Google Research zaprezentował innowacyjne podejście do projektowania modeli językowych zdolnych do adaptacji w czasie rzeczywistym - nazwane Titans. System wprowadza nowy rodzaj pamięci neuronowej, która potrafi samodzielnie uczyć się zapamiętywania informacji podczas działania, a nie tylko w trakcie treningu. Kluczową innowacją jest mechanizm "zaskoczenia" - model przywiązuje większą wagę do nieoczekiwanych lub istotnych informacji, podobnie jak robi to ludzki mózg. Dodatkowo, system potrafi "zapominać" nieistotne informacje, co pozwala mu efektywnie zarządzać swoją pamięcią przy długich sekwencjach tekstu. Architektura zawiera trzy komponenty: pamięć krótkoterminową (oparta na mechanizmie uwagi), pamięć długoterminową (ucząca się podczas działania) oraz pamięć trwałą (przechowującą wiedzę niezależną od danych). W testach Titans wykazał znaczącą przewagę nad istniejącymi modelami, zarówno w zadaniach językowych jak i w analizie długich sekwencji, np. przy wyszukiwaniu konkretnych informacji w obszernych dokumentach. Co szczególnie interesujące, architektura okazała się również efektywna w zadaniach z zakresu analizy DNA i prognozowania szeregów czasowych. To bardzo obiecujące rozwiązanie pokazuje, że wciąż możemy znacząco usprawnić podstawową architekturę modeli językowych. Wprowadzenie mechanizmów inspirowanych ludzką pamięcią - takich jak selektywne zapamiętywanie czy zapominanie - może być kluczem do stworzenia systemów AI lepiej radzących sobie z długimi kontekstami. 🧠 Sakana AI prezentuje Transformer2 - model AI zdolny do dynamicznej adaptacjiSakana AI zaprezentowało przełomową technologię o nazwie Transformer2 (Transformer-squared), która wprowadza koncepcję samodostosowujących się modeli językowych (LLM). System wykorzystuje dwuetapowe podejście, które pozwala modelom AI na dostosowywanie swoich parametrów do różnych zadań w czasie rzeczywistym. Zamiast tworzenia osobnych wersji modelu dla każdego zadania, Transformer2 używa innowacyjnej techniki SVF (Singular Value Fine-tuning), która modyfikuje tylko wartości osobliwe w macierzach wag modelu, zapewniając minimalny narzut obliczeniowy. Model oferuje trzy metody adaptacji: opartą na promptach, wykorzystującą klasyfikator zadań oraz uczenie few-shot. W testach system znacząco przewyższył tradycyjne metody dostrajania takie jak LoRA, szczególnie w złożonych zadaniach matematycznych i wizualnych. Co szczególnie interesujące, badania pokazały możliwość skutecznego przenoszenia wiedzy między różnymi modelami (np. z Llama do Mistral), otwierając nowe możliwości w rozwoju i skalowaniu modeli AI. To bardzo obiecujące rozwiązanie z praktycznego punktu widzenia - zamiast tworzenia i przechowywania wielu wyspecjalizowanych modeli, możemy mieć jeden model, który dynamicznie adaptuje się do potrzeb. To nie tylko oszczędność zasobów, ale też krok w kierunku bardziej elastycznej i efektywnej sztucznej inteligencji. 🔬 AI wykrywa przerzuty raka mózgu bez operacjiZespół badawczy z McGill University opracował model AI, który z 85-procentową dokładnością wykrywa rozprzestrzenianie się przerzutów nowotworowych w mózgu, analizując standardowe obrazy MRI. To przełom, który może uchronić pacjentów przed inwazyjnymi zabiegami chirurgicznymi dotychczas niezbędnymi do oceny stopnia zaawansowania choroby. Model został przetestowany na ponad 130 pacjentach i zweryfikowany poprzez porównanie z wynikami badań mikroskopowych. 🩺 Nowy test krwi wspierany przez AI wykrywa wiele rodzajów rakaNaukowcy z Uniwersytetu Oxford stworzyli innowacyjny test krwi TriOx, który wykorzystuje uczenie maszynowe do analizy DNA we krwi pacjentów. Test potrafi wykryć sześć różnych typów nowotworów, w tym raka jelita grubego, przełyku, trzustki, nerek, jajników i piersi, nawet we wczesnych stadiach. Co istotne, test osiąga wysoką skuteczność - 94,9% czułości i 88,8% specyficzności, co oznacza małe ryzyko zarówno fałszywych wyników pozytywnych jak i negatywnych. 🔋 Przełom w uczeniu sieci neuronowych obniży zużycie energii przez AINaukowcy z Uniwersytetu w Bonn opracowali nową metodę trenowania "spiking neural networks", która może drastycznie zmniejszyć zużycie energii przez systemy AI. Te specjalne sieci neuronowe naśladują naturalne neurony, komunikując się poprzez krótkie impulsy elektryczne zamiast ciągłego przepływu danych. Dotychczas trudno było je trenować, ale nowa metoda rozwiązuje ten problem, otwierając drogę do znacznie bardziej energooszczędnych systemów AI. 🚀 OpenAI wprowadza funkcję zarządzania zadaniami w ChatGPTOpenAI uruchomiło nową funkcję "Tasks" w wersji beta, dostępną dla użytkowników planów Plus, Team i Pro. Nowa funkcjonalność pozwala na planowanie i automatyzację powtarzalnych zadań, takich jak codzienne aktualizacje pogody czy przypomnienia o ważnych wydarzeniach. System może wysyłać powiadomienia na różne platformy, choć zarządzanie zadaniami jest obecnie ograniczone do wersji webowej. 🔍 Nowy system GeAR ulepsza wyszukiwanie dokumentówNowy system GeAR (Generation Augmented Retrieval) wprowadza innowacyjne podejście do wyszukiwania dokumentów, łącząc tradycyjne metody z możliwościami generatywnymi AI. System nie tylko znajduje odpowiednie dokumenty, ale także potrafi wskazać konkretne fragmenty i wytłumaczyć ich znaczenie. W testach osiąga imponujące wyniki: 0,961 Recall@5 i 0,903 MAP@5 w zadaniach wyszukiwania informacji. Czytaj więcej lub Czytaj artykuł źródłowy Co jeszcze w świecie AI?
Połowa stycznia przynosi nam wiele nadziei na przyszłość - od przełomowych zastosowań AI w medycynie, przez bardziej ekologiczne rozwiązania w samej technologii, po nowe funkcje w narzędziach, których używamy na co dzień. Jeśli uważasz, że te informacje mogą być przydatne dla innych, zachęcam do dzielenia się tym newsletterem ze znajomymi - razem możemy lepiej śledzić i rozumieć zachodzące zmiany w świecie AI. Pozdrawiam, PS. wkrótce kolene propozycje AI Sprinters. A może moich PT Korespondentów jest ktoś, kto chciałby do nas dołączyć? |
Dwa razy w tygodniu na Twojej skrzynce!
Witaj Reader! Kolejny tydzień przyniósł kolejne ważne newsy w świecie AI. OpenAI przedstawił swoją wizję przyszłości - GPT-4.5 ma być ostatnim "zwykłym" modelem językowym, a GPT-5 ma zintegrować wszystkie narzędzia w jeden inteligentny system. Tymczasem Anthropic zapowiada nowy model z unikalnymi możliwościami rozumowania, a w Polsce ludzie kupują startery T-Mobile aby odebrać darmowy rok Preplexity. W dziale "refleksyjnym" polecam dziś wpis, w którym na swoim blogu CEO OpenAI Sam Altman...
Witaj Reader! Witaj w poniedziałkowy poranek! W tym tygodniu Google zaskoczyło społeczność AI wypuszczając całą rodzinę nowych modeli Gemini 2.0, w tym flagowy model Pro z imponującym oknem kontekstowym 2 milionów tokenów (to o rząd wielkości więcej niż modele OpenAI i Anthropic). Kiedy będziecie go próbować zwróćcie uwagę na "Deep Research" do Google - choć oparty na starszym modelu 1.5 Pro jest jednak bardzo pożyteczny i może osłodzić oczekiwanie na włączenie o3 Deep Research na Waszych...
Witaj Reader! W ostatnich dniach OpenAI dodało nowe możliwości do swoich systemów wprowadzając model o3-mini dla wszystkich użytkowników oraz nową usługę "Deep Research", która potrafi przeprowadzać złożone analizy na podstawie wielu źródeł. Nie mniej ciekawe są doniesienia o problemie "niedostatecznego myślenia" w modelach AI oraz nowy system Google'a do automatyzacji rozmów telefonicznych. Coraz więcej uwagi poświęca się też kwestiom efektywności obliczeniowej - zarówno w kontekście dużych...