Tema Janna La licenza non è convalidata, vai alla pagina delle opzioni del tema per convalidare la licenza, è necessaria una singola licenza per ogni nome di dominio.

L'intelligenza artificiale può interpretare i segnali cerebrali e comprendere i pensieri umani?

Studi recenti hanno dimostrato che i sistemi di intelligenza artificiale sono ora in grado di interpretare i segnali neurali generati dal cervello e di convertirli in parole, immagini o persino intenzioni. Utilizzando tecniche avanzate di apprendimento profondo e dispositivi di neuroimaging come fMRI ed EEG, l'intelligenza artificiale è in grado di rilevare modelli neurali associati a determinati pensieri. Questo sviluppo non riguarda la lettura del pensiero come viene rappresentata nei film, bensì un passo avanti verso la comunicazione diretta con i dispositivi, senza parole o movimenti. Cosa rende possibile questa tecnologia? Quali sono le sfide etiche e scientifiche che il suo utilizzo comporta?

illustrazione-di-un-robot-ai-connesso-a-un-cervello L'intelligenza artificiale può interpretare i segnali cerebrali e comprendere i pensieri umani?

riepilogo

  • L'intelligenza artificiale è in grado di decodificare le onde cerebrali senza ricorrere a interventi chirurgici invasivi, consentendo di leggere la mente senza bisogno di impianti fisici.
  • La decodifica semantica può tradurre le onde cerebrali in frasi coerenti, offrendo la possibilità di convertire i pensieri in testo.
  • Le attuali tecnologie di lettura del pensiero sono accurate, ma richiedono una formazione approfondita e sofisticate attrezzature di laboratorio, e sollevano preoccupazioni sulla privacy.

Immagina una frase e questa apparirà immediatamente sullo schermo. Non scrisse né pronunciò una parola. Sembra un episodio di Black Mirror, non è vero?

Tuttavia, sono in fase di sviluppo sistemi di intelligenza artificiale in grado di fare proprio questo. Non c'è nemmeno bisogno del chip cerebrale invasivo di Elon Musk.

Come funziona la lettura della mente da parte dell'intelligenza artificiale?

Potresti averne sentito parlare Neuralink. Si tratta di un piccolo chip in grado di catturare l'attività neurale e di inviarla in modalità wireless a un computer. Questa tecnologia è ancora in una fase iniziale, ma è in grado di fare cose straordinarie.

Come abbiamo visto in recenti dimostrazioni, questa tecnologia consente a una persona paralizzata di controllare un cursore su uno schermo usando solo la mente. L'azienda spera che un giorno questo chip permetterà alle persone paralizzate di camminare e persino di comunicare telepaticamente.

Il problema è che la tecnologia Neuralink richiede un rischioso intervento chirurgico al cervello. Questo tipo di impianto è adatto a persone con gravi disabilità, ma potrebbe non essere fattibile per la maggior parte delle persone.

Il tuo cervello sta inviando una trasmissione segreta.

Sorprendentemente, non è necessario inserire un chip nel cervello per leggerne l'attività. In alternativa, puoi affidarti alle onde cerebrali.

Quando un neurone nel cervello si attiva, invia una debole corrente elettrica. Questa corrente, di per sé, è troppo debole per essere misurata al di fuori del cervello, ma i neuroni tendono a sincronizzarsi e a pulsare insieme.

Quando migliaia di queste cellule si attivano contemporaneamente in successione ritmica all'interno del cervello, il segnale elettrico è sufficientemente forte da essere rilevato esternamente sul cuoio capelluto. È un po' come quando uno stadio pieno di persone che applaudono all'unisono crea un impulso che puoi percepire da lontano. Allo stesso modo, il tuo cuoio capelluto è costantemente attraversato da attività elettrica.

Leggi anche:  Come potenziare il segnale del cellulare in casa in semplici passaggi

L'intelligenza artificiale può interpretare i segnali cerebrali e comprendere i pensieri umani?

Questa è l'essenza delle onde cerebrali: schemi ritmici che riflettono ciò che il tuo cervello sta pensando e facendo in quel momento. Alcuni modelli mostrano riposo e rilassamento, altri concentrazione o risoluzione dei problemi, altri ancora riflettono dialoghi interiori. Il trucco sta nel distinguerli e separare gli schemi significativi dal rumore.

Quindi, questa è l'idea di base: addestrare l'intelligenza artificiale a interpretare queste onde e vedere cosa riesce a estrarre dal rumore. Sorprendentemente, questo metodo funziona.

Per favore, calmati, la macchina sta scansionando la tua mente in questo momento.

  • In un test Il mio laboratorioLa seguente frase è stata letta a una persona:
  • "Non ho ancora la patente."

Non pronunciò né scrisse una parola, ma si limitò ad ascoltare mentre la macchina scansionava il suo cervello (in modo non invasivo).

L'intelligenza artificiale ha letto questa scansione in tempo reale e questo è stato il suo output:

"Non hai ancora iniziato a imparare a guidare."

Si noti che l'input non viene trascritto alla lettera. Questa intelligenza artificiale estrae il significato dai pensieri dell'ascoltatore. È una lettura del pensiero nel senso letterale del termine.

Questo sistema è chiamato "decodificatore" e si basa sulle scansioni fMRI per decodificare l'attività cerebrale. Ai partecipanti vengono lette delle storie o viene chiesto loro di rifletterci sopra, e questo è sufficiente all'IA per tradurre i loro pensieri.

Un partecipante ha sentito la seguente frase:

“Quella notte, salii nella nostra stanza e, senza sapere cosa fare, spensi le luci e mi sdraiai sul pavimento.”

L'intelligenza artificiale ha monitorato l'attività cerebrale e l'ha tradotta in:

"Tornammo nella mia stanza del dormitorio. Non sapevo dove fosse il mio letto. Pensavo di dormirci sopra, ma mi sdraiai sul pavimento."

Il sistema va oltre la parola. Quando i partecipanti guardano video muti, l'intelligenza artificiale è in grado di narrare parte di ciò che stanno guardando in un modo che decodifica i loro pensieri in base all'input visivo.

guardare attraverso gli occhi di qualcun altro

Guarda questa immagine.

ksnip_20250413-165337 L'intelligenza artificiale può interpretare i segnali cerebrali e comprendere i pensieri umani?

Un volontario ha osservato l'immagine a sinistra per un secondo mentre era sdraiato sotto uno scanner fMRI. L'intelligenza artificiale ha letto l'attività cerebrale dell'uomo e ha ricostruito la sua esperienza visiva nell'immagine a destra.

ksnip_20250413-165144 L'intelligenza artificiale può interpretare i segnali cerebrali e comprendere i pensieri umani?

ksnip_20250413-165402 L'intelligenza artificiale può interpretare i segnali cerebrali e comprendere i pensieri umani?

L'immagine non è sempre perfetta, ma è piuttosto vicina alla realtà.

I meta-ricercatori hanno portato questa sorprendente analisi crittografica ancora oltre. Utilizzando la magnetoencefalografia (MEG), l'intelligenza artificiale è in grado di decodificare questi input visivi in ​​tempo reale, o almeno quasi. Questa analisi non produce risultati chiari e quasi perfetti, ma ricostruisce il flusso visivo di una persona: un flusso in continuo cambiamento di ciò che il cervello vede momento per momento.

In un altro progetto, Meta ha utilizzato lo stesso hardware per ricostruire intere parole e frasi coerenti a partire dai segnali cerebrali.

Parla con Alexa con la tua mente

La tecnologia di cui abbiamo parlato finora richiede attrezzature di laboratorio enormi e sofisticate. Tuttavia sono in fase di sviluppo anche sistemi pratici e indossabili.

Leggi anche:  Puoi scrivere lettere di accompagnamento e curriculum utilizzando l'intelligenza artificiale (ma dovresti?)

AlterEgo Si tratta di un dispositivo indossabile che consente di parlare con computer e chatbot intelligenti senza bisogno di parlare o fare gesti. Quando pensi di parlare, prima di pronunciare una parola, si verifica un'impercettibile attività muscolare nelle mascelle e nella testa. Questo dispositivo indossabile è in grado di catturare i segnali muscolari e tradurli in input leggibili dal computer. Il computer restituisce quindi l'output sotto forma di suono che viene trasmesso attraverso le ossa.

Quindi puoi dire silenziosamente "Alexa, riproduci musica" e sentire "riproduci musica" tramite conduzione ossea, senza emettere alcun suono o indossare gli auricolari.

Non si tratta di una lettura del pensiero in senso letterale, perché il dispositivo non legge le tue emozioni né interpreta i tuoi pensieri. È solo un modo per comunicare con i computer utilizzando il dialogo interno.

Cosa possono realmente fare i sistemi di intelligenza artificiale per leggere la mente?

Questi sistemi di intelligenza artificiale sono ancora confinati nei laboratori, ma stanno lentamente entrando nel mondo reale. Ciò aprirà una dimensione completamente nuova al modo in cui interagiamo con i computer e alle loro capacità.

Restituiamo la voce alle persone con disabilità

L'impiego più urgente è quello di ripristinare la comunicazione per le persone con disabilità. Le persone affette da paralisi completa devono ricorrere a tecniche lente e poco pratiche, come l'eye tracking, per scrivere le lettere. Sistemi di intelligenza artificiale come i decodificatori semantici o AlterEgo possono suscitare all'istante i loro pensieri più intimi, restituendo loro voce.

Sulla base di questi sistemi è possibile sviluppare nuovi tipi di strumenti e funzionalità di accessibilità. Questi sistemi elimineranno la necessità di digitare, parlare o muoversi, offrendo alle persone che non sono in grado di parlare un modo chiaro per comunicare. Invece di selezionare attentamente le lettere sbattendo le palpebre, possono scrivere o controllare la sedia a rotelle usando solo i pensieri.

Input alla velocità del pensiero

Invece di tastiere, mouse, tocco o voce, questi sistemi di intelligenza artificiale possono aiutarci a creare interfacce alimentate dai pensieri. Una volta che queste tecnologie saranno mature, potremo controllare il nostro telefono o il nostro computer portatile semplicemente pensando di scorrere o cercare. Il sistema AlterEgo comprende e riceve già come input messaggi subliminali come "spegni le luci".

Le interfacce basate sulla decodifica dei pensieri sono quasi istantanee. Non è faticoso come scrivere, né complesso come il riconoscimento vocale.

Interfacce cervello-schermo

Alla fine, potresti non aver nemmeno bisogno di verbalizzarlo interiormente. In questo modo non sarà più necessario scrivere. I tuoi pensieri passeranno direttamente dal cervello allo schermo. Ciò cambierà non solo il nostro modo di scrivere, ma cambierà anche il significato della scrittura.

un-chip-di-intelligenza-artificiale-con-un-cervello-sopra-e-qualche-simbolo-del-dollaro-attorno L'intelligenza artificiale può interpretare i segnali cerebrali e comprendere i pensieri umani?

Puoi prendere appunti, cambiare canzone mentalmente o scrivere programmi mentalmente alla velocità del pensiero. La tecnologia brain-to-text di Meta è ancora in una fase iniziale, ma sta gradualmente avanzando. Circa 60 parole al minuto - Vale a dire il doppio della velocità media di digitazione.

Poiché i decodificatori della visione in tempo reale, come il dispositivo MEG di Meta, sono in grado di leggere il contenuto visivo all'interno del cervello, quello stesso contenuto potrebbe diventare input per un computer. Invece di cercare di pensare alle parole, puoi immaginare un'immagine (o qualcosa di simile) che apparirà sullo schermo.

Leggi anche:  Google Maps sta guadagnando la navigazione dei trasporti pubblici su Galaxy Watch e Pixel Watch

Attualmente viene utilizzata per decodificare i costrutti mentali interni, ma un giorno questa tecnologia potrebbe aiutarvi a scrivere messaggi a bassa voce durante le riunioni.

Perché non è ancora sul mercato?

La tecnologia in sé è buona e funziona, ma il motivo per cui non esistono decodificatori semantici sul mercato è che non sono ancora generalizzati.

requisiti di formazione eccessivi

Affinché un decodificatore semantico possa funzionare con una persona, l'IA deve essere addestrata per ore. Ciò significa che il partecipante deve trascorrere ore sotto l'effetto di una risonanza magnetica funzionale, ascoltando storie, finché l'intelligenza artificiale non inizia a riconoscere i modelli di attività neurale di quella persona.

Inoltre, i risultati dell'intelligenza artificiale vengono interrotti se i partecipanti smettono di collaborare. Il decodificatore non “ruba” i pensieri perché può interpretarli solo se la persona è disposta a farlo. Se smette di pensare o pensa ad altri pensieri, il sistema restituisce solo confusione.

Richiede attrezzature di laboratorio ingombranti

I decodificatori del pensiero o dispositivi cervello-schermo richiedono apparecchiature di laboratorio altamente sofisticate. Il dispositivo MEG di Meta, che fornisce un feedback visivo immediato e la scrittura dei pensieri, funziona solo in una stanza isolata magneticamente e i partecipanti devono rimanere completamente immobili, altrimenti il ​​risultato non sarà chiaro.

Anche AlterEgo, che evita la rilevazione precisa delle onde cerebrali basandosi su sottili movimenti muscolari, è limitato a frasi brevi e pre-addestrate. Non capisce frasi lunghe o complesse.

d199b47f L'intelligenza artificiale può interpretare i segnali cerebrali e comprendere i pensieri umani?

Non sempre accurato

C'è un altro problema: la precisione è ancora inferiore di due livelli. Il decodificatore semantico (che riporta il significato nascosto dei pensieri) coglie il significato corretto solo nel 50% dei casi. La decodifica cerebrale tramite Meta AI ha una precisione dell'80%.

Questa tecnologia metterà fine alla privacy?

Nella situazione attuale, ci troviamo di fronte a una fase del tutto sconosciuta. Una volta che un'idea viene digitalizzata e registrata, inizia l'autocensura. Non si tratta di segreti sepolti nella tua mente; Riguarda la libertà di pensare senza essere censurati. Se qualcuno potesse monitorare, registrare e riprodurre i nostri pensieri, inizieremmo a modificarli internamente.

Se questi dati vivono al di fuori del nostro cervello come registrazione dei nostri pensieri su un browser web, chi ha il diritto di accedervi e possederli?

Un tribunale può emettere una citazione in giudizio per la tua mente se non ci sono altre prove o testimoni? Forse ormai gli psicoterapeuti non hanno più bisogno di chiederti nulla. Possono semplicemente guardare i tuoi pensieri.

shutterstock_1115578520 L'intelligenza artificiale può interpretare i segnali cerebrali e comprendere i pensieri umani?

Le aziende stanno già scandagliando le nostre vite digitali alla ricerca di ogni singolo dato che riescono ad estrarre. Quando le idee diventano digitali nel mondo reale, possono trasformarsi in uno strumento altamente invasivo per la messa a punto di algoritmi e pubblicità mirate. Amazon potrebbe sapere cosa vuoi acquistare, non limitarsi a indovinarlo, e potrebbe darti dei suggerimenti prima ancora che tu te ne accorga.

La tecnologia di lettura del pensiero esiste già. Resta da vedere come cambierà il mondo quando questa tecnologia verrà lanciata sul mercato.

Con i progressi della ricerca sull'interpretazione dell'attività cerebrale, l'intelligenza artificiale si sta avvicinando a possibilità che anni fa erano considerate impossibili. Sebbene la lettura del pensiero, così come la concepiamo noi, sia ancora lontana, la capacità di tradurre i segnali neurali in un output comprensibile apre nuovi orizzonti alla comunicazione con le persone con disabilità e allo sviluppo di interfacce cervello-digitali. Le questioni etiche e di sicurezza restano cruciali nel definire il futuro di questa tecnologia, ma una cosa è certa: l'intelligenza artificiale è più vicina che mai a comprendere i nostri pensieri.

Vai al pulsante in alto