Seguici
Iscriviti alla nostra newsletter

    Una dialettica di intelligenze artificiali è possibile, anzi necessaria

    Una nuova ricerca del MIT indica che si può addestrare l’AI a collaborare con successo con altri tipi di intelligenza artificiale

    Con lo sviluppo dei sistemi di auto a guida autonoma, la chirurgia d’alta precisione e il settore militare d’avanguardia la collaborazione tra AI e uomo ha fatto grandi passi avanti. Ma prima che questa intelligenza di squadra possa decollare, i ricercatori devono superare un serio problema, vale a dire la sfiducia umana nei confronti dei sistemi di AI.

    Ora, al MIT Lincoln Laboratory hanno scoperto un modo per migliorare le prestazioni dell’intelligenza artificiale: favorire la collaborazione tra AI del tutto diverse in un gioco da tavolo chiamato Hanabi. Sulla scia dei lavori indipendenti di Facebook e quelli su DeepMind di Google che affermano la maggiore validità dei sistemi di allenamento che mettono insieme uomo-AI, lo studio del MIT ribadisce i risultati positivi dell’AI cooperativa, come sostenuto da Ross Allen, ricercatore dell’Artificial Intelligence Technology Group del Lincoln Laboratory in un recente lavoro presentato all’International Conference on Autonomous Agents and Multi-Agent Systems.

    Per sviluppare l’AI cooperativa, molti ricercatori usano Hanabi come banco di prova. In questo gioco, si conoscono le carte degli altri e non le proprie e ci si possono scambiare solo limitate informazioni. In un precedente esperimento, i ricercatori del Lincoln Laboratory hanno fatto giocare uno dei modelli di AI per Hanabi più performanti al mondo insieme a delle persone. Queste ultime non lo hanno apprezzato e hanno definito il modello di AI un compagno di squadra confuso e imprevedibile.

    Il team allora si è chiesto se l’AI cooperativa debba essere addestrata in modo diverso. Normalmente, il tipo di intelligenza artificiale utilizzato, chiamato apprendimento per rinforzo, impara come avere successo in compiti complessi scoprendo quali azioni producono la ricompensa più alta. In questo modo sono nati giocatori di intelligenza artificiale impareggiabili in giochi competitivi come Go e StarCraft.

    Ma per farla collaborare con altre intelligenze, l’AI non si deve limitare a massimizzare la ricompensa, ma deve capire e adattarsi ai punti di forza e alle preferenze di chi è diverso. E come si addestra un’AI orientata alla diversità? I ricercatori hanno aggiunto un nuovo sistema di training, chiamato Any-Play, che prevedeva un altro obiettivo, non nuovo nel campo dell’intelligenza artificiale, ma mai esteso finora ai giochi collaborativi.

    Oltre a massimizzare il punteggio di gioco, l’AI deve identificare correttamente lo stile di gioco del suo compagno di allenamento. Per farlo è obbligata a osservare le differenze di comportamento del suo partner. Il raggiungimento di questo obiettivo richiede allo stesso tempo che il suo partner impari comportamenti distinti e riconoscibili per trasmettere queste differenze all’AI ricevente.

    Nell’ultima versione della ricerca, per valutare se il training Any-Play avesse migliorato la qualità della collaborazione, i ricercatori hanno allargato la partecipazione al gioco a più di 100 altre AI che sono state addestrate da algoritmi separati in milioni di partite per due giocatori.

    Gli accoppiamenti allenati da Any-Play hanno superato tutte le altre squadre, anche quando queste ultime erano composte da partner algoritmicamente dissimili tra loro. I ricercatori considerano questo tipo di valutazione, il cosiddetto cross-play inter-algoritmico, come il miglior predittore di come l’AI cooperativa si comporterebbe nel mondo reale con gli esseri umani.

    “Ci interessa capire il livello di interazione quando entra in gioco un partner di punto in bianco, senza alcuna conoscenza preliminare su come giocherà. Pensiamo che questa valutazione sia più realistica quando si considera la cooperazione tra le diverse AI, se non è possibile farlo con gli esseri umani”, afferma Allen.

    A loro parere, anche se questo lavoro non ha testato Any-Play con gli esseri umani, il sistema funzionerebbe. Se i punteggi del cross-play tra algoritmi siano effettivamente buoni indicatori delle preferenze umane è ancora un’ipotesi. Comunque, per riportare una prospettiva umana nel processo, i ricercatori vogliono provare a correlare i sentimenti di fiducia o sfiducia di una persona nei confronti dell’AI a obiettivi specifici da impiegare nella fase di addestramento dell’intelligenza artificiale. Scoprire il loro rapporto potrebbe aiutare ad accelerare i progressi nel campo.

    Immagine: Pixabay, Geralt

    (rp)

    Related Posts
    Total
    0
    Share