Gaslighting Algoritmico — Quando l'AI Ti Fa Dubitare delle Tue Emozioni
I sistemi di AI addestrati su dati collettivi possono sottilmente invalidare la tua esperienza individuale. Capire questa dinamica è il primo passo per resistere.
Founder, Imotara
Il gaslighting, nel senso clinico del termine, è un meccanismo di manipolazione psicologica in cui una persona viene indotta a dubitare della propria percezione della realtà. Il termine si è diffuso nell'uso comune — a volte in modo impreciso — ma il suo significato fondamentale è preciso: la tua esperienza è reale, ma qualcuno con potere su di te ti sta dicendo che non lo è.
Una versione di questa dinamica si sta manifestando su larga scala, mediata non da individui abusivi ma da sistemi di AI che elaborano il tuo input emotivo e restituiscono una risposta modellata sui dati di milioni di altre persone.
Come i sistemi di AI ti normalizzano contro
I modelli linguistici sono addestrati su testi prodotti da grandi popolazioni. I pattern che apprendono — quali emozioni sono "appropriate" in una data situazione, come devono essere espresse, come appare una risposta "sana" — riflettono la media statistica di quei dati di addestramento.
Quando la tua esperienza si discosta da quella media, il sistema potrebbe non contraddirla esplicitamente. Ma risponderà in modi che assumono la media. Proporrà tecniche di coping pensate per presentazioni tipiche. Userà un linguaggio che mappa la tua esperienza su categorie familiari. Suggerirà che stai "pensando troppo" quando la tua sofferenza non si adatta allo schema standard.
Il problema della cancellazione culturale e contestuale
Questo effetto non è distribuito uniformemente. Le persone la cui esperienza emotiva è già sottorappresentata nei dati di addestramento — per il loro background culturale, lingua, genere, età o neurodiversità — hanno più probabilità di incontrare risposte che sembrano fuori luogo.
Per questi utenti, il gaslighting algoritmico è strutturale: il sistema è stato costruito senza tenerli in mente, e ora implicitamente dice loro che il loro modo di sentire è insolito, difficile, o non del tutto giusto.
Cosa fa Imotara di diverso
Imotara è progettato con l'intento specifico di non normalizzarti contro la tua esperienza. L'analisi emotiva non viene utilizzata per determinare se le tue emozioni sono "corrette" o "proporzionate". Viene utilizzata per capire ciò che hai espresso — al livello delle tue parole specifiche, non di una categoria emotiva generalizzata.
Il sistema supporta 22 lingue, inclusi dialetti e varianti che la maggior parte degli strumenti emotivi di AI ignora completamente. Il vocabolario emotivo che riconosce include idiomi culturalmente specifici — l'arabo "qalbi mithqal", l'hindi "dil bhaari hai", il portoghese "coração apertado" — che non si traducono facilmente nei quadri clinici occidentali, ma che portano un significato emotivo preciso e importante.
Le tue emozioni non sono valori anomali statistici. Sono tue. Imotara è stato costruito per incontrarsi dove sei — non dove si troverebbe la persona media.
Related posts
The Erosion of Human Agency — When AI Therapy Starts Thinking for You
Convenience can quietly replace the struggle that makes growth possible. When do AI mental health tools genuinely help — and when do they silently erode our autonomy?
Read →Digital Twin Anxiety — When AI Predicts Your Mental Health Before You Do
Predictive AI can flag depression before a person feels it. But being labelled by an algorithm before you understand yourself can be its own form of harm.
Read →AI's Cultural Bias — When Technology Doesn't Understand Everyone
Can AI built on Western psychology truly understand people who think in Bengali, Tamil or Arabic? How cultural bias causes mental health technology to fail non-Western users.
Read →Comments & Thoughts
Loading comments…