• OpenAI

Una poltrona a forma di avocado potrebbe indicare il futuro dell'AI

OpenAI ha esteso il campo d’azione di GPT-3 con due nuovi modelli che combinano la programmazione neurolinguistica con il riconoscimento delle immagini per dare alla sua AI una migliore comprensione dei concetti quotidiani.

di Will Douglas Heaven 06-01-21
Con GPT-3, OpenAI ha dimostrato che un singolo modello di apprendimento profondo può essere addestrato per utilizzare il linguaggio in una varietà di modi semplicemente inserendo grandi quantità di testo. Ha poi dimostrato che scambiando il testo con i pixel, lo stesso approccio potrebbe essere utilizzato per addestrare un'intelligenza artificiale a completare immagini presentate a metà. GPT-3 imita il modo in cui gli umani usano le parole e con le immagini prevede ciò che vediamo.
    
Ora OpenAI ha messo insieme queste tecniche e costruito due nuovi modelli, chiamati DALL E e CLIP, che combinano linguaggio e immagini in un modo da rendere le AI migliori nel comprendere sia le parole sia ciò a cui si riferiscono. "Viviamo in un mondo basato sulle immagini", afferma Ilya Sutskever, responsabile scientifico di OpenAI. “Alla lunga, avremo modelli in grado di comprendere la combinazione di testo e immagini. L'intelligenza artificiale sarà in grado di capire meglio la lingua perché può vedere cosa significano parole e frasi".