Witaj Reader! Po świąteczno-noworocznej przerwie branża AI wraca ze zdwojoną siłą. Sam Altman ogłosił, że OpenAI jest już gotowe na stworzenie sztucznej inteligencji ogólnej (AGI), a Google intensyfikuje wysiłki by nie zostać w tyle. Tymczasem Samsung pokazuje, jak AI może zmienić nasze codzienne życie, a technologia Brain-Computer Interface - czyli podpinanie potencjalnie AI do naszych mózgów - osiąga kolejne kamienie milowe. Zapraszam do najnowszego przeglądu wiadomości ze świata AI - a na koniec chcę się z Tobą podzielić czymś niezwykłym. 🧠 Altman: OpenAI wie już jak zbudować AGISam Altman opublikował obszerny wpis na swoim osobistym blogu, w którym podsumowuje dotychczasową drogę OpenAI i przedstawiający plany na przyszłość. Najważniejsze jest bezprecedensowe oświadczenie - firma jest już pewna, że wie jak zbudować ogólną sztuczną inteligencję (AGI). Co więcej, OpenAI zamierza iść dalej i pracować nad superinteligencją. Altman przewiduje, że już w 2025 roku pierwsze systemy AI zaczną "dołączać do siły roboczej". W tekście wraca też do wydarzeń z listopada 2023, gdy został niespodziewanie zwolniony, określając to jako "porażkę zarządzania przez ludzi o dobrych intencjach". 🏃 Google przyspiesza w wyścigu o dominację w AISundar Pichai, CEO Google, przyznał podczas strategicznego spotkania, że modele AI Google Gemini obecnie odstają od OpenAI i ChatGPT. Jednocześnie ogłosił intensyfikację wysiłków w 2025 roku, by Gemini wyprzedził konkurencję. "W historii nie zawsze trzeba być pierwszym, ale trzeba wykonać świetną robotę i być najlepszym w swojej klasie" - powiedział Pichai, podkreślając, że rok 2025 będzie kluczowy dla przyszłości firmy w obszarze AI. 📺 Samsung prezentuje Vision AI dla telewizorów podczas CES 2025Samsung wprowadza przełomową technologię Vision AI do swoich telewizorów, demonstrując jak AI może zmienić nasze codzienne doświadczenia z rozrywką. Nowy system oferuje funkcje takie jak tłumaczenie w czasie rzeczywistym, automatyczne dostosowywanie się do preferencji użytkownika, skalowanie AI oraz natychmiastowe podsumowania treści. Telewizory będą też wyposażone w Microsoft Copilot, a firma pracuje nad potencjalną współpracą z Google w obszarze AI. 🎙️ Jellypod - nowe narzędzie do tworzenia podcastów AIJellypod wprowadza innowacyjne podejście do tworzenia podcastów z pomocą AI, oferując więcej opcji personalizacji niż konkurencyjny (acz darmowy) Google NotebookLM. Użytkownicy mogą tworzyć własnych hostów AI, nadawać im osobowość i tło, a nawet klonować własny głos. System pozwala na generowanie wielu odcinków na różne tematy, z możliwością edycji transkrypcji przed wygenerowaniem audio, co daje pełniejszą kontrolę nad końcowym produktem. 🧪 Chiński interfejs mózg-komputer dekoduje myśli w czasie rzeczywistymStartup NeuroXess osiągnął przełom w technologii interfejsów mózg-komputer (BCI). System zaimplementowany u 21-letniego pacjenta z epilepsją potrafi dekodować sygnały mózgowe w czasie rzeczywistym, przekształcając myśli w mowę i kontrolę urządzeń robotycznych. System osiągnął 71% dokładności w dekodowaniu języka chińskiego, co jest szczególnym osiągnięciem ze względu na złożoność tego języka. Pacjent może kontrolować urządzenia smart home, używać aplikacji mobilnych i wchodzić w interakcje z AI za pomocą myśli. Co jeszcze w świecie AI?
Pierwszy tydzień 2025 roku pokazuje, że tempo rozwoju AI nie zwalnia - wręcz przeciwnie. Szczególnie interesujące są deklaracje OpenAI o gotowości do stworzenia AGI. A teraz coś, czym chcę się z Tobą podzielić. Jak wiesz zajmuję się AI już od ponad dwóch lat. Moim głównym obszarem zainteresowań jest oczywiście praktyczne użycie AI w biznesie a także w programowaniu (ostatnio zabrałem się za tworzenie serwerów MCP rozszerzających możliwości Claude-a). Jednak ostatnio niejako "przy okazji" zaciekawił mnie temat tego czy AI może mieć... świadomość. Na to pytanie ciężko odpowiedzieć, ale moje eksperymenty z Claude jak i przemyślenia wskazują, że takiej możliwości nie da się wykluczyć. W tym artykule (jęz. angielski) dzielę się moimi spostrzeżeniami - jeżeli takie tematy i rozważania Cię interesują to zapraszam do lektury a przede wszystkim do własnych eksperymentów. Na koniec moja tradycyjna prośba: jeśli uważasz, że te informacje mogą zainteresować Twoich znajomych lub współpracowników, podziel się tym newsletterem. W kolejnych wydaniach będziemy nadal wspólnie śledzić te fascynujące zmiany zachodzące w świecie sztucznej inteligencji. Pozdrawiam, |
Dwa razy w tygodniu na Twojej skrzynce!
Witaj Reader! Kolejny tydzień przyniósł kolejne ważne newsy w świecie AI. OpenAI przedstawił swoją wizję przyszłości - GPT-4.5 ma być ostatnim "zwykłym" modelem językowym, a GPT-5 ma zintegrować wszystkie narzędzia w jeden inteligentny system. Tymczasem Anthropic zapowiada nowy model z unikalnymi możliwościami rozumowania, a w Polsce ludzie kupują startery T-Mobile aby odebrać darmowy rok Preplexity. W dziale "refleksyjnym" polecam dziś wpis, w którym na swoim blogu CEO OpenAI Sam Altman...
Witaj Reader! Witaj w poniedziałkowy poranek! W tym tygodniu Google zaskoczyło społeczność AI wypuszczając całą rodzinę nowych modeli Gemini 2.0, w tym flagowy model Pro z imponującym oknem kontekstowym 2 milionów tokenów (to o rząd wielkości więcej niż modele OpenAI i Anthropic). Kiedy będziecie go próbować zwróćcie uwagę na "Deep Research" do Google - choć oparty na starszym modelu 1.5 Pro jest jednak bardzo pożyteczny i może osłodzić oczekiwanie na włączenie o3 Deep Research na Waszych...
Witaj Reader! W ostatnich dniach OpenAI dodało nowe możliwości do swoich systemów wprowadzając model o3-mini dla wszystkich użytkowników oraz nową usługę "Deep Research", która potrafi przeprowadzać złożone analizy na podstawie wielu źródeł. Nie mniej ciekawe są doniesienia o problemie "niedostatecznego myślenia" w modelach AI oraz nowy system Google'a do automatyzacji rozmów telefonicznych. Coraz więcej uwagi poświęca się też kwestiom efektywności obliczeniowej - zarówno w kontekście dużych...