Synapsa.app
Technologia i Zaufanie

Dlaczego medyczne AI nie może 'zmyślać'? O technologii Grounding i walce z halucynacjami.

D
Dział R&D Aetion Labs
3 min czytania
Cyfrowa sieć neuronowa z wyraźnie zaznaczonymi punktami kotwiczenia (grounding points) łączącymi się z dokumentem źródłowym

W mediach regularnie pojawiają się historie o “halucynacjach” sztucznej inteligencji. AI, które wymyśla nieistniejące książki, cytuje wyroki sądowe, które nigdy nie zapadły, lub podaje fakty historyczne niezgodne z prawdą.

Dla lekarza lub pacjenta czytającego takie nagłówki wniosek jest prosty: “Nie mogę zaufać AI w kwestii zdrowia. Ryzyko błędu jest zbyt duże”.

W Aetion Labs zgadzamy się z tym w 100%. Nie można ufać ogólnym modelom językowym w medycynie. Dlatego w Synapsa AI (i wszystkich naszych produktach) używamy zupełnie innej architektury.

Dlaczego AI kłamie? (Problem “Papugi”)

Popularne modele (jak bazowy ChatGPT) działają jak niezwykle oczytana papuga lub mistrz improwizacji. Ich celem jest stworzenie tekstu, który brzmi płynnie i prawdopodobnie. Jeśli model nie zna odpowiedzi, “wypełnia lukę” czymś, co pasuje do kontekstu, nawet jeśli jest to nieprawda.

W pisaniu wierszy to zaleta (kreatywność). W medycynie to błąd krytyczny (halucynacja).

Rozwiązanie: RAG + Grounding (Uziemienie)

W Aetion Labs nie pozwalamy AI na improwizację. Stosujemy architekturę RAG (Retrieval-Augmented Generation) z rygorystycznym mechanizmem Grounding.

Wyobraź sobie różnicę:

  • Zwykłe AI (Egzamin ustny): Student próbuje odpowiedzieć z pamięci. Może coś pomylić, może próbować “lać wodę”, żeby ukryć niewiedzę.
  • Synapsa AI (Praca z tekstem): Student dostaje do ręki tylko transkrypcję Twojej wizyty i ma zakaz używania wiedzy zewnętrznej. Ma polecenie: “Znajdź w tym tekście fragment o bólu głowy i przepisz go. Jeśli go nie ma, napisz: Nie znaleziono”.

To właśnie jest RAG. AI nie “wymyśla” diagnozy. AI “ekstrahuje” informacje z dostarczonego źródła (nagrania wizyty).

Grounding w praktyce: Zasada “Pokaż Palcem”

Aby mieć absolutną pewność, że system nie zmyśla, wdrożyliśmy mechanizm weryfikacji zwany Groundingiem.

Każda kluczowa informacja wygenerowana przez Synapsa MED czy ADHD Buddy musi posiadać “kotwicę” (odnośnik) do źródła.

Przykład z systemu: Wniosek AI: Pacjent skarży się na bezsenność. Grounding: [Kliknij, aby odsłuchać fragment 04:12 - 04:25] -> “No i panie doktorze, od trzech tygodni gapię się w sufit do trzeciej rano”.

Jeśli AI nie jest w stanie podać znacznika czasowego (dowodu), system jest zaprogramowany tak, by odrzucić taką informację. To bezpiecznik, który chroni przed halucynacjami.

Parametr Temperatury: Zero Kreatywności

W inżynierii AI istnieje parametr zwany “Temperature”.

  • Wysoka temperatura (np. 0.8) = duża kreatywność, barwny język, ryzyko zmyślania.
  • Niska temperatura (np. 0.0) = chłodna logika, trzymanie się faktów, determinizm.

W naszych modułach medycznych suwak temperatury jest “przyspawany” do zera. Nasze AI nie ma być poetą. Ma być precyzyjnym analitykiem danych.

Zaufanie buduje się na inżynierii, nie na obietnicach

Wdrażając AI do ochrony zdrowia, nie prosimy lekarzy o “wiarę w technologię”. Dajemy im narzędzia do jej weryfikacji. Filozofia “Wzmocnienie, nie Zastępstwo” oznacza, że AI wykonuje brudną robotę (przeszukiwanie, notowanie), ale to człowiek zawsze weryfikuje wynik, mając pod ręką nagranie źródłowe.

To koniec ery “magicznych skrzynek”. To era transparentnej, weryfikowalnej i bezpiecznej inżynierii medycznej.

Chcesz poznać techniczne szczegóły naszych zabezpieczeń? Przeczytaj dokumentację Whitepaper: Safety & Privacy in Aetion Labs