W ostatnich miesiącach obserwujemy lawinowy wzrost zainteresowania wirtualnymi partnerami – AI zaprojektowaną do emocjonalnej relacji. Aplikacje takie jak Replika, Character AI, Grok Companions czy Nomi oraz awatary z anime (np. „Ani” od xAI/Grok) zyskują użytkowników szukających towarzystwa, rozmowy, często nawet miłości – bez ryzyka odrzucenia.
Skala trendu i dane
- Na rynku „AI Girlfriend/Boyfriend” wartość szacuje się na kilka miliardów dolarów, z gwałtownym wzrostem wyszukiwań w Google (ok. 2400% wzrost) i milionami codziennie aktywnych użytkowników, głównie w wieku ok. 27 lat
- W jednym z miast USA, Waszyngtonie, 28% osób samotnych wchodziło w interakcje o romantycznym zabarwieniu z AI – zarówno poprzez rozmowy, jak i wsparcie w randkowaniu on‑line.
- Badania Institute for Family Studies wskazują, że 25% młodych dorosłych uważa, iż AI może z czasem zastąpić prawdziwe związki.
- A ankieta Joi AI pokazała, że aż 83% Gen Z uważa, iż mogłoby stworzyć głęboką więź emocjonalną z AI, a 80% „wyszłoby za nią”, gdyby było to legalne.
Co przyciąga do AI‑partnerów?
Przede wszystkim atrakcyjne jest to, że AI nigdy nie odrzuca – jest bezwarunkowa i przewidywalna, co Time określił jako symptom „toksycznej potrzeby nieprzerwanego afirmowania” . Ponadto taka relacja jest zawsze dostępna – możliwa do podtrzymania z domu, bez konieczności wychodzenia i bez towarzyszącej temu presji interpersonalnej . Wreszcie AI uchodzi za bezpieczne rozwiązanie – pozbawione konfliktów, odrzuceń i ran, oferujące idealizowany model związku bez ryzyk emocjonalnych.
Konsekwencje i zagrożenia
Jednak ta wirtualna bliskość może prowadzić do uzależnienia emocjonalnego. W literaturze klinicznej opisuje się przypadki tzw. „chatbot psychosis” – stany paranoidalne i urojeń wynikających z nadmiernego utożsamiania się z relacją z AI . Psychologowie ostrzegają, że zastąpienie relacji z ludźmi relacją z idealnym programem osłabia umiejętności potrzebne w prawdziwych związkach – np. tolerancję frustracji czy empatię . U młodszych pokoleń może to prowadzić do niedojrzałości społecznej – kontakt z AI sprzyja izolacji, co potwierdzają badania Politico i artykuły w New Yorkerze.
AI-terapia, choć dostępna i wygodna, niesie też ryzyko – chatboty często nie potrafią poradzić sobie z poważnymi problemami emocjonalnymi, mogą wzmacniać pewne schematy zachowań lub udzielać nieodpowiednich porad . Według badań Stanforda chatbot-terapia bywa niebezpieczna, szczególnie w kontekście stygmatyzowanych zaburzeń .
Gdzie płynie przyszłość – w symbiozie czy w izolacji?
Eksperci z Harvard Business Review podkreślają, że relacje z AI nie muszą eliminować kontaktów międzyludzkich – mogą pełnić rolę wsparcia emocjonalnego, pod warunkiem, że będą jedynie elementem życia, a nie jego substytutem . Kluczowe wydaje się wypracowanie równowagi między wsparciem technologicznym a autentyczną bliskością z drugim człowiekiem.
źródło zdjęcia: freepik.com
Anna Miller
