ai

DeepMind mette alla prova le intelligenze artificiali: riescono a collaborare?

Cosa succede se aclune intelligenze artificiali vengono messe davanti a un compito sociale? Collaborano o si ostacolano? A chiederselo è DeepMind, azienda di Alphabet, lo stesso gruppo di Google.

Share With:

Cosa succede quando si incontrano due AI? C’è chi l’ha fatto per gioco, facendo parlare tra loro due dispositivi con Google Home in diretta su Twitch, e c’è, invece l’ha presa più sul serio. Si tratta ovviamente di Alphabet, il gruppo aziendale di cui fa parte anche Google. DeepMind, questo il nome della compagnia che si occupa delle intelligenze artificiali, ha pubblicato uno studio focalizzato proprio sul comportamento delle IA in situazioni “sociali”, ovvero dinanzi a problemi la cui risoluzione prevede la collaborazione o il conflitto con altre entità artificiali.

Il più celebre di questi “giochi” è il dilemma del prigioniero, una delle più efficaci applicazioni della teoria dei giochi, che rappresenta la tipica situazione in cui essere egoisti può portare sia un vantaggio piccolo che un estremo vantaggio, ma dove collaborare, in realtà espone a grandi rischi. Per ricreare queste situazioni DeepMind si è affidata a semplici videogiochi: nel primo, Gathering, lo scopo è raccogliere le mele da una pila centrale, con i due giocatori che possono rallentarsi a vicenda con l’uso di un laser; il secondo, Wolfpack, mette due giocatori al seguito di un terzo, in una sorta di caccia a ostacoli dove si viene premiati in base alla vicinanza all’obiettivo. I risultati dell’esperimento sono interessanti: in Gathering, per esempio, le IA tendono a ignorarsi finché c’è ampia disponibilità di mele per entrambe, ma in caso di carenza, ecco che parte la battaglia. Allora gli scienziati hanno provato a inserire nella partita un’IA più avanzata, che, a differenza delle altre, ha scelto una strategia più aggressiva, per impedire dall’inizio l’accesso alla risorsa preziosa.

La scelta di un differente stratagemma, però, limitatamente al primi gioco, non vuol dire necessariamente l’adeguamento alla situazione, ma potrebbe significare anche un semplice sfoggio di potenza computazionale, o un’ottimizzazione della potenza di calcolo: un’IA più potente, in sintesi, potrebbe semplicemente valutare che nel dubbio e potendo, due comportamenti sono sostenibili, per cui fattibili. Il comportamento avuto nell’altro, invece, tende a far pensare l’adattabilità delle intelligenze artificiali in base alla circostanza. Dove la collaborazione poteva generare più punti per tutti, infatti, le IA più avanzate hanno preferito la collaborazione alla performance. Quest’esperimento, dunque, conferma che le intelligenze artificiale più raffinate riescono ad adattarsi benissimo a sistemi di regole diversi, scegliendo di collaborare o affrontarsi in base alle esigenze personali. Questo potrebbe portare a utilizzare le IA per studiare fenomeni complessi o impiegarle per strumenti più evoluti. Insomma, un altro passo verso la ribellione dei robot è stato fatto.

Non è stato inserito nessun commento.

Accedi


Nome utente
Crea un nuovo account!
Password
Hai dimenticato la password?

Registrati


Nome utente
Email
Password
Conferma la Password
Sesso
Indirizzo
Citta
Provincia
Professione
Telefono
Desidero ricevere la newsletter
Accetto le condizioni di utilizzo del servizio
Ai sensi degli articoli 1341 e 1342 del codice civile italiano si accettano espressamente i seguenti articoli del Contratto: 1. (automatica accettazione della più recente versione del Contratto); 7. (diritti di privativa); 8. (manleva); 9. (modifiche e cancellazioni); 10 (limitazione di responsabilità); 12. (legge applicabile e foro competente)
Autorizzo al trattamento dei miei dati personali come descritto nell'articolo 8
Autorizzo la cessione dei miei dati personali a terzi/partner
Hai già un account? Esegui la login

password dimenticata?


Nome utente o Email
Twitter Auto Publish Powered By : XYZScripts.com