OpenAI ogłosiło znaczącą aktualizację ChatGPT: jego flagowy model konwersacyjny może teraz korzystać z całej historii rozmów użytkownika, aby dostarczać bardziej spersonalizowane i kontekstowe odpowiedzi. Ta funkcjonalność, początkowo dostępna dla subskrybentów Plus i Pro poza Europą, oznacza krok w kierunku przekształcenia ChatGPT z narzędzia jednorazowego użytku w adaptacyjnego asystenta.
Od fragmentarycznej pamięci do retencji przekrojowej
Do tej pory pamięć ChatGPT była ograniczona do jednej sesji lub fragmentów zapisanych preferencji (styl, powtarzające się tematy). Dzięki tej nowej funkcji, AI może teraz uzyskać dostęp do pełnej historii wymiany, co otwiera drogę do bardziej precyzyjnej personalizacji, ciągłości w projektach i zdolności do tworzenia długoterminowych powiązań.
Obietnica jest silna. W kontekście zawodowym, asystent z długą pamięcią mógłby nie tylko integrować powtarzające się strategiczne kwestie użytkownika, ale także śledzić jego kalendarz redakcyjny, dostosowywać swoje odpowiedzi do preferencji argumentacyjnych i uwzględniać jego zwykłych rozmówców. Dla użytkowania osobistego to gwarancja ciągłości: śledzenie projektów, preferencje stylistyczne, długoterminowe cele. Użytkownik zyskuje na efektywności i płynności.
Ale ta zwiększona pamięć budzi pytania. Czy może prowadzić do asystenta zbyt przewidywalnego? Dostosowując się do nawyków użytkownika, czy nie ryzykuje zahamowania różnorodności punktów widzenia i wzmocnienia uprzedzeń poznawczych?
Kwestie etyczne i suwerenność danych
Ta dokładna znajomość zachowań użytkownika rodzi również pytania natury etycznej. OpenAI umożliwia użytkownikom pełną kontrolę nad tą funkcją: mogą przeglądać, modyfikować lub usuwać zapisane wspomnienia, a nawet całkowicie wyłączyć pamięć. Mimo tej kontroli, jaki jest stopień przejrzystości w odniesieniu do wykorzystywanych danych? Ze względu na europejskie regulacje, w tym RODO, ta długoterminowa pamięć nie jest dostępna w UE.
Ekosystem w fazie transformacji
ChatGPT nie jest jedynym modelem badającym długą pamięć. Kilku graczy również rozwija AI zdolne do rozszerzonej kontekstualizacji:
- Claude (Anthropic) proponuje pamięć typu RAG (Retrieval Augmented Generation), łączącą konwersacje i zewnętrzne bazy wiedzy, z silnym naciskiem na etykę i zgodność z użytkownikiem;
- Gemini (Google DeepMind) integruje elementy przekrojowej kontekstualizacji w ekosystemie Google Workspace, zapowiadając formę pamięci rozproszonej, ale skupionej na zastosowaniach dokumentacyjnych;
- Meta pracuje nad asystentami społecznymi z pamięcią relacyjną, zintegrowanymi z platformami społecznościowymi, gdzie ciągłość emocjonalna przeważa nad analizą racjonalną;
- Projekty takie jak Pi (Inflection AI) czy Character.AI stawiają na pamięć emocjonalną, mającą na celu zbudowanie ciągłej i angażującej relacji z użytkownikiem.
Zbieżność w kierunku długiej pamięci wydaje się nieunikniona, ale logiki się różnią: efektywność zawodowa, lojalność emocjonalna czy integracja ekosystemowa. Na dłuższą metę prawdziwym wyzwaniem może nie być zdolność do zapamiętywania, ale zdolność do wybierania, co należy zapomnieć.
W kierunku nowej równowagi
Ta zwiększona pamięć może oznaczać początek nowego związku z asystentami konwersacyjnymi. Pozostaje pytanie, czy użytkownik jest gotów zaakceptować ten poziom "intymności technologicznej" oraz na jakie kompromisy dotyczące personalizacji, różnorodności i prywatności jest gotów się zgodzić.
Tłumaczone z Vers une personnalisation accrue : si vous le désirez, ChatGPT peut désormais se souvenir de vos interactions