Torna a tutti gli episodi
Ep.37 - Intelligenza artificiale e machine learning con Roberto Marmo

Episodio 37

Ep.37 - Intelligenza artificiale e machine learning con Roberto Marmo

La programmazione di sistemi di intelligenza artificiale sta prendendo sempre più piede, ne abbiamo parlato con un esperto. Roberto Marmo professore a contratto di informatica dell'Università di Pavia e autore del libro "Algoritmi per l'Intelligenza Artificiale" editore Hoepli.## Links- http://www.r...

3 settembre 202000:52:57
AIScienceMusic
37

In Riproduzione

Ep.37 - Intelligenza artificiale e machine learning con Roberto Marmo

0:000:00

Note dell'Episodio

La programmazione di sistemi di intelligenza artificiale sta prendendo sempre più piede, ne abbiamo parlato con un esperto. Roberto Marmo professore a contratto di informatica dell'Università di Pavia e autore del libro "Algoritmi per l'Intelligenza Artificiale" editore Hoepli.## Links- http://www.robertomarmo.net- https://www.algoritmiia.it/ - https://www.linkedin.com/in/robertomarmo - https://www.facebook.com/roberto.marmo- https://www.instagram.com/robertomarmopv/- https://twitter.com/RobertoMarmo- https://www.robertomarmo.net/libro-algoritmi-ia.html## Riferimenti interessantiNick BostromSuperintelligenza. Tendenze, pericoli, strategie Bollati BoringhieriMax TegmarkVita 3.0. Essere umani nell'era dell'intelligenza artificialeCortina Raffaelloutile bibliografia quihttps://www.linkedin.com/pulse/alcuni-libri-sulla-data-science-da-leggere-davide-camera/## Contatti@brainrepo su twitter o via mail a info@gitbar.it## CreditiLe sigle sono state prodotte da MondoComputazionaleLe musiche da Blan Kytt - RSPN e Broke For Free - Something Elated

Descrizione

Eccoci con Roberto Marmo, professore a contratto all'Università di Pavia e autore del libro "Algoritmi per l'intelligenza artificiale". Abbiamo parlato di dati, informazioni e di come l'80% del lavoro nell'AI sia pulire dati sporchi. Poi ci siamo tuffati nelle reti neurali, nel machine learning e in GPT-3, senza dimenticare che se entra spazzatura esce spazzatura, e che Terminator è ancora lontano.

Takeaway

  • Dati vs Informazioni: i computer elaborano dati (es. "53"), noi umani diamo il significato (es. "53 anni")
  • L'80% del lavoro è pulizia dei dati: trovare dati è facile, pulirli e renderli informazione utile è il vero lavoro
  • Machine Learning: è come un bambino che va a scuola, impara dagli esempi (input-output) senza conoscere la formula matematica
  • Supervised vs Unsupervised: con supervisione hai un maestro che insegna le classi, senza supervisione l'algoritmo scopre da solo i pattern
  • Reti neurali: nate negli anni '40-'50, si ispirano al cervello umano ma siamo ancora lontani da una vera intelligenza
  • GPT-3: affascinante per le API accessibili agli sviluppatori, ma non capisce il significato dei testi, solo pattern ricorrenti

Bold Opinion

  • L'intelligenza artificiale non va usata per fare hype ma solo quando serve davvero: se hai soluzioni semplici non complicarti la vita
  • I framework come TensorFlow sono utili ma il 70% del lavoro è pensiero strategico sui modelli: senza capire la teoria sei fregato
  • Le API democratizzano l'AI ma non scaricate le responsabilità sugli algoritmi: dovete sempre pensare a cosa, come e quando usarle
  • L'etica nell'AI è fondamentale: non deleghiamo decisioni sensibili (mutui, assunzioni) a reti neurali che non sanno spiegare le loro scelte

Trascrizione

[Musica] Benvenuti su Gitbar, il podcast dedicato al mondo dei full stack developer, i mezzo artigiani, i mezzo artisti che ogni giorno infilano le mani nel fango per creare nel modo più efficiente possibile quei prodotti digitali che quotidianamente usiamo.[Musica] Bene, benvenuti in un nuovo episodio di Gitbar.Ormai l'estate è finita eppure noi siamo ancora qua.finalmente siamo ritornati ad avere il nostro setup standard quindi l'audio non farà poi così schifo come l'audio che ho registrato in Sardegna e anche oggi abbiamo un ospite però non voglio farmi prendere dalla fretta e come ogni puntata vi devo ricordare i nostri contatti potete scrivermi a info@gitbar.it via email oppure @brainrepo su twitter mi raccomando conoscete ormai a memoria il nostro sito www.gitbar.it dove trovate tutte le note degli episodi con tutti gli episodi l'audio da ascoltare e quanta ci fermiamo un secondo e poi vi introduco il nostro ospite è arrivato la rovina Eccoci qua! Allora, davanti a me in questa connessione digitale abbiamo Roberto Marmo.Roberto Marmo che ho ricevuto come suggerimento da Luca Sambucci.Quando ho iniziato a parlargli di intelligenza artificiale e di applicazione pratica di intelligenza artificiale mi ha fatto il suo nome, ho avuto modo di scambiare due informazioni ed eccolo qua ai nostri microfoni.Ma chi è Roberto Marmo? Senza dubbio da molti anni interessato agli algoritmi per analizzare dati con l'intelligenza artificiale, ha pubblicato a maggio un libro chiamato "Algoritmi per l'intelligenza artificiale" ed è anche professore di informatica a contratto presso l'università di Pavia.Ciao Ciao Roberto, buonasera! Buonasera, ciao, ciao! Piacere di incontrarti e di incontrarvi! Dimenticavo anche che hai un blog, algoritmia.it, giusto? Sì, sì, sì! Voi se cercate Roberto Marmos, tutti i social network ne trovate in abbondanza! Tieni presente che nelle note dell'episodio metterò tutti i link su come contattarti e insomma come andare a ricercare un po' di informazioni su di te.Ti faccio subito una domanda a bruciappello perché visto che in questo pomeriggio, questa sera, vogliamo parlare di intelligenza artificiale, la prima domanda è cosa sono i dati? Beh devi distinguere innanzitutto tra dato e informazione, che sono due concetti ben distinti.Per farti un esempio, quando tu dici 53 anni, 53 è il dato puro, astratto, che non dice niente, anni è quello che ti aiuta a capire il dato, diventa quindi l'informazione.Quello che dobbiamo ricordarci sempre è che i computer elaborano dati, per loro non è un 53 numero come l'altro, siamo noi esseri umani con la nostra intelligenza che trasformiamo poi il dato e diamo il significato dell'informazione per i nostri obiettivi, per cui quando parliamo di intelligenza artificiale ricordiamo sempre che comunque noi siamo computer tradizionali che elaborano numeri, siamo noi dopo a interpretare il risultato di queste elaborazioni e dire "guarda quando è stato bravo, è sempre quasi un uomo che ragiona".buona parte del lavoro è dato come dici dalla nostra interpretazione no? dell'informazione.Guarda io praticamente dei progetti intelligenza artificiale che seguo io 80% o grandi quantità di tempo è dedicato soltanto alla pulizia dei dati, a trovare i dati, ma trovare non è tanto un problema su internet oggi si trova di tutto, i dati si possono trovare ma il problema è pulirli farli diventare informazione utile ad elaborare e lì il ruolo dell'essere umano è ancora molto molto forte.Come si sviluppa la fase di pulizia del dato? Innanzitutto dobbiamo partire da decidere se vogliamo usare l'intelligenza artificiale perché ci è veramente utile perché ne abbiamo veramente bisogno o se soltanto usarlo perché magari è un'etichetta che ci fa comodo.Se decidiamo di usare l'intelligenza artificiale perché ci è realmente utile lo facciamo perché non abbiamo altre soluzioni, sono programmi molto complicati e quindi abbiamo dei dati molto complicati.Posso dire per esempio immagini, audio, testi che sono più difficili ad elaborare usiamo l'intelligenza artificiale.Ma la prima fase è l'obiettivo, dove voglio andare a parare? In base a quello scelgo il tipo di dato e che pulizia fare, per esempio per le immagini se sono a fuoco o fuori fuoco, se magari c'è troppa luce, contrasti e così via.Oggi abbiamo tonnellate di immagini perché le facciamo facilmente, però un'immagine per essere adeguata ha bisogno di particolari criteri.Se pensate soltanto se avete mai avuto occasione di studiare l'intelligenza artificiale di google per elaborare le immagini e pittere fuori le tascalie ha comunque bisogno di caratteristiche visive particolari contrasti adeguati eccetera.La prima fase quindi è filtrare e togliere di mezzo quello che non ci serve anche perché ricordiamo sempre l'assunto di base che se entra spazzatura in qualsiasi sistema anche se intelligente esce comunque spazzatura per cui se i dati che noi mettiamo dentro sono sporchi anche il risultato verrà fuori sporco perché nessuna intelligenza artificiale comprende quello che fa e non solo un esecutore, un obbediente molto veloce ma non comprende quello che sta facendo l'intelligenza artificiale.Hai introdotto il concetto di intelligenza artificiale, in realtà spesso sentiamo parlare di intelligenza artificiale, machine learning, deep learning, spesso anche impropriamente.Qual è la differenza che dobbiamo avere ben chiaro in mente tra questi tre concetti quindi intelligenza artificiale, learning e deep learning.Si bisogna fare un po' di chiarezza perché in effetti a volte si usa questa etichetta per realizzare delle cose molto semplici.L'intelligenza artificiale è un grande contenitore di tante tecnologie, quelle che ci sono state prima sono soltanto alcune.Diciamo che come intelligenza artificiale intendiamo qualcosa il cui comportamento è simile a quello di un essere umano, per dire un software che vede un'immagine e capisce quali oggetti ci sono all'interno, oppure un software che ascolta un audio e ti trascrive contenuto.Quindi sembrano combi che un essere umano riesce a fare in maniera intelligente.Poi l'intelligenza artificiale come definizione nasce molto tempo fa, nel 1956, in una conferenza americana da Banty Minsk, quindi parlando di tecnologia che non è certo nata oggi, ma ha il suo passato.Diciamo che noi possiamo parlare di intelligenza artificiale quanto quello che noi otteniamo è talmente sofisticato e complicato da sembrare essere prodotto come se dietro ci fosse un uomo, un'intelligenza umana.Tant'è che il primo test è stato creato da Alan Turing negli anni '40 dove lui diceva che metteva un computer e una persona nascosta nelle stanze.Tu non sai con chi hai a che parlare, se parli con il computer o se parli con l'uomo, scrivi testi, dialoghi con lui e alla fine devi dire se hai parlato con l'uomo o se hai parlato con il computer.Se non sei riuscito a capire la differenza tra i due, uomo e computer, nelle risposte che ti davano, allora vuol dire che il computer si comporta come un essere umano.Da lì nasce poi tutto il concetto dell'intelligenza artificiale che naturalmente è molto affascinante perché ci porterebbe un giorno a creare un nuovo cervello, quindi anche implicazioni filosofiche molto avanzate.Adesso siamo ancora molto molto lontani.Poi nell'intelligenza artificiale abbiamo tantissime tecnologie, abbiamo l'apprendimento automatico, algoritmi genetici, parlando anche di genetiche in questo periodo, logica fazi, reti neurali, tanti altri argomenti.Diciamo che quello che è più famoso adesso è il machine learning, ovvero l'apprendimento automatico.Devi pensare al computer come un bambino che nasce senza conoscere niente, va a scuola, c'è un insegnante che lo istruisce e alla fine il bambino studia, fa gli esami, supera gli esami e poi diventa bravo e quindi va a lavorare.Quindi l'apprendimento automatico è un apprendimento di una macchina che all'inizio non sa fare niente, c'è l'istruttore esterno che insegna tutto quello che serve e poi dopodiché diventa talmente bravo che lo puoi mettere a lavorare.E' un dato famoso perchè è molto molto elastico.Facciamo un esempio così è più facile da capire.Quando tu fai la somma di due numeri, 2+3=5, tu hai la formula matematica per fare l'addizione, 2+3=5, quindi con la formula matematica hai l'algoritmo che ti segue il calcolo e ti dà il risultato.Nel machine learning tu non sai il concetto di addizione.Gli dai l'input 2 e 3 e l'output 5.Poi gli dai un altro input 4 e 1 e l'output Quindi gli dai tantissimi input e tantissimi output collegati.Lui vede l'input, capisce la struttura che c'è sotto e capisce come generare l'output.Per cui diventa molto facile quando tu hai tantissimi input ma non hai la formula, il metodo per elaborarli e però sai che tipo di output ti aspetti.Ecco perché si parla di apprendimento.Lui guarda i dati, perché per computer stiamo parlando di dati comunque, noi poi gli diamo il senso dell'informazione.Guarda l'input, guarda l'output e crea dei ponti tra input e output.questi bei ponti se li crea in automatico questi algoritmi di machine learning e noi non dobbiamo fare niente se non aspettare che lui studia i dati e poi quindi crea questi collegamenti.Ti faccio una domanda, non vuole essere un gioco di parole però ho paura che facilmente lo può diventare.Se noi in termini di machine learning abbiamo solo due elementi, l'input e l'output, tutto il resto quello che ci sta in mezzo è l'algoritmo giusto? Il comportamento dell'algoritmo però non possiamo prevederlo, dico bene? Diciamo che si può fare, senza che l'algoritmo sappiamo, semo noi che diciamo che tipo di algoritmo usare, l'evoluzione è più difficile da controllare perché questa macchina si evolve da sola, si modifica all'interno da sola, però semo noi che comunque quando qualche linea guida che la possiamo dare certo oggi sono arrivate macchine che hanno queste famose retina orali che si ispirano a funzionamento del neurone del cervello umano avendo certo macchine con 170 milioni miliardi di parametri e così via diventerà sempre più complicato capire come loro si evolvono ecco perché può si parlare di macchine che si evolvono a tal punto da poter sfuggire al controllo ma per arrivare ai film come terminator e così via possono stare tranquilli, ce ne vorranno moltissimo tempo.Pensiamo piuttosto usarli per risolvere i nostri piccoli problemi di calcolo quotidiano.Quindi per ora siamo ancora al sicuro dall'attacco dei siloni? No, no, non avremo neanche a che fare.Adesso quello che è importante è usarlo nell'ambito dello sviluppo del software per risolvere problemi che finora ci sono sembrati complicati, ma usando questi strumenti possono diventare molto facili da risolvere.Pensiamo ad avere l'uso per migliorare la nostra vita quotidiana più che per pensare adesso a grandi sogni.Ti faccio una domanda, spesso ritorna nelle discussioni un concetto di intelligenza artificiale supervisionata e non supervisionata.Penso che ci siamo passati di strescio prima quando parlavi di machine learning.Qual è proprio la differenza tra questi due concetti e se esistono degli algoritmi che ti portano in un contesto supervisionato e no e quali sono le caratteristiche, i margini operativi che abbiamo in questi due contesti? Beh queste sono quelle forme di apprendimento che abbiamo discusso prima ovvero sembra in l'ambito di machine learning che il sistema deve imparare, ora il sistema impara con l'apprendimento supervisionato se c'è il maestro.Immagina quando noi andavamo a scuola da bambini o l'università c'era il docente, in quel caso parliamo di supervisione di qualcuno che ci insegna qualcosa, però pensa invece alla persona autodidatta che studia da sola, la persona autodidatta che studia da sola ha un apprendimento non supervisionato, quindi l'algoritmo fa da solo, impara da solo, non c'è nessuno che lo sorveglia, può andare bene ma può andare male e quindi si tratta di un'altra categoria.Diciamo che l'apprendimento supervisionato lo usi quando ci sono problemi di classificazione, dove tu sai l'informazione in quale classe deve andare, uomo, donna, brutto, un'immagine e così via e quindi è un problema dei dati vuol dire a quale classe appartengono questi dati e tu sai quale classi ci sono e quindi gli dici quale classi ci sono.L'apprendimento non supervisionato invece quando tu neanche sai le classi, immaginate i clienti del tuo sito web, Google Analytics e così via e tu non sai neanche chi sono i tuoi clienti, se sono giovani, hanno una certa residenza e così via, quindi non sai neanche quale classi suddividere i tuoi clienti.L'algoritmo non supervisionato, lui studia da solo e ti tira fuori le classi in cui suddividere i tuoi utenti.Quindi praticamente non abbiamo un controllo su quello che è il comportamento interno ma abbiamo...Certo è molto più complicato perché può andare a finire male, può darti una risposta sbagliata e poi c'è una serie di modelli matematici per studiarli ma comunque oggi le soluzioni si trovano.Volevo proprio arrivare là.Noi siamo full stack developer come ti anticipavo nel pretrasmissione quindi ci occupiamo di scrivere dei programmi dove possiamo in qualche modo cercare di controllare al massimo il caso di fallimento utilizziamo per esempio le suite di test automatici e quindi mettiamo in esecuzione il nostro codice nei test e vediamo se si comporta come stabilito.Nel contesto invece dell'intelligenza artificiale e del machine learning.Esiste un concetto di test e se sì come lo possiamo fare? Come si applica? Come si mette in piedi? Ci sono tante tecniche per misurare quello che sta succedendo.Certo in alcuni modelli, se tu prendi il concetto di rete neurale, quello che si ispira al cervello umano, dove è dentro 150 mila parametri, anzi arriviamo addirittura come nel caso di quelle reti più moderne gpt3 lì abbiamo milioni di parametri un po' più complicato però abbiamo delle tecniche statistiche per capire se la rete sta andando in una direzione giusta, sta prendendo bene o se sta prendendo male quindi abbiamo possibilità di capire quello che succede e di dare un voto per dire la rete questa soluzione ci serve oppure la dobbiamo buttare via.Ci abbiamo tutto previsto, ormai queste tecniche sono studiate dagli anni 50 quindi hanno la loro maturità quindi non sono più degli oracoli misteriosi.Quindi comunque esistono delle procedure.Anche lì ci sono ambienti di test per verificare se l'algoritmo vario che sia lì sta andando nella direzione che vogliamo oppure no.Certo è più lungo, più faticoso, bisogna studiare anche lì i dati giusti.Per esempio un trucco ideale che si fa, una tecnica ideale più che un trucco.Io insegno allo studente insomma il 2+3 che fa 5, però magari per evitare che poi l'algoritmo imbara solo a calcolare 5, io gli cambio completamente l'input, gli do 10 e 1, quindi tendiamo a dare un input e un output che la rete è un modello matematico, quello che sia, non l'ha mai visto prima.E' un po' come quando uno fa l'esame, cioè tu quando fai l'esame a scuola studiavi certi esercizi, poi il docente ti dà degli esercizi simili, ma comunque il contenuto leggermente diverso.E da lì vedevi come andava.Se tu fai il paragone con come noi abbiamo studiato nei vari percorsi di formazione, quello che sia, allo stesso modo l'intelligenza artificiale nasce ignorante e viene istruita fino a diventare operativa.Correggimi se sbaglio Roberto, anche il contesto nel quale dividiamo, che ne so, in due il nostro dataset, facciamo il training del modello con uno e poi verifichiamo con l'altra parte del modello se la predizione è corretta, questo potrebbe essere un modo per testare il nostro sistema giusto? La fidabilità? Sì, ma addirittura noi abbiamo Per le tecniche che usiamo nell'intelligenza artificiale, soprattutto per le reti neurali, usiamo tre test.Il training, quello con cui impara la rete neurale, per esempio, ma poi semplifichiamo parlando di reti neurali ispirate al nostro cervello umano per non allargarci troppo.Allora, prima di tutto fa un training set con cui addestri la rete neurale, quindi che la rete neurale studia i dati e cerchi di capire quello che succede.Poi abbiamo una prima forma di validation set, si chiama, set di validazione, che serve per evitare che la rete neurale impara a memoria i dati ma non capisce il significato.Quando a scuola la maestra ti diceva "hai studiato in memoria la formula e i numeri ma non hai capito niente di quello che hai studiato".Poi c'è il testo test che si chiama test set che è l'esame finale che poi decide se buttare tutto o andare avanti.Quindi abbiamo un 70% di addestramento e training, 15% di validazione, 15% di test, di tecniche e ne abbiamo tante.Però certo ci vuole tempo perché bisogna fare prove, controprove, cambiare i dati, il bilanciamento è un processo lungo.Tu hai pubblicato a maggio, come dicevo nell'introduzione, un libro che si intitola "Algoritmi per l'intelligenza artificiale".Qual è dal tuo punto di vista l'algoritmo per l'intelligenza artificiale più interessante e più affascinante che hai analizzato e studiato? Io ho sempre studiato in particolare le reti retti norali, tanto è che ho fatto anche un esame di filosofia e della scienza cognitiva, forse uno dei pochi informatici a cui avrei fatto esame di filosofia all'università, perché ho avuto anche la fortuna di avere dei maestri a Salerno che si occupavano di intelligenza artificiale e il maestro è stato Edoardo Caglianiello che è stato anche uno dei fondatori italiani della teoria delle retti norali.Quindi il retto norale è sempre stato il mio strumento preferito.Naturalmente non è detto che vada sempre bene, la retta norale porta a deep learning e tutte queste parole utili adesso, poi dipende dal problema, a volte sono troppo pesanti per risolvere problemi più semplici, però quello è uno strumento che, quello che si chiama Deep Learning, ovvero retinoidale con tantissimi centinaia di migliaia di parametri, che è quello che adesso mi permette di, usa Facebook, usa Google, viene usato in tanti contesti per avere degli ottimi risultati, soprattutto sulle immagini e anche sulla generazione di testi ultimamente con quel GPT-3 che magari qualcuno ha sentito pronunciare in questo periodo.esatto infatti arriviamo un attimo alla gpt3 di openai.è uscito in grande spolvero come concetto abbiamo visto anche dei test su youtube io devo ammettere che ho richiesto l'accesso alle api da sviluppatore non l'ho ancora ricevuto forse anche io vale la pena se non accordo un po di ingressi credo di sì però abbiamo visto dei test penso che li abbiano visti tutti e in alcuni casi sono dei test che sembrano stupefacenti che ne so la generazione dell'applicazione react direttamente con le indicazioni oppure la generazione di testo che sembra scritto dall'uomo Come vedi l'introduzione di questo nuovo modello, se non mi sbaglio si chiama Da Vinci, con non so quanti gozziliardi di parametri? Come lo vedi nel contesto dell'intelligenza artificiale? Pensi che sia una trovata di marketing? Pensi che abbia uno spazio reale nel contesto? Diciamo che uno dei progressi più recenti, che questo è realmente nato da poco, dell'intelligenza artificiale la generazione di dati, finora si è sempre pensato ad analizzare dati esistenti e tirare fuori delle conclusioni, adesso con le reti orari di planning generativo, quelle che si chiamano anche GAN, reti orari generative, modelli adversariali, dettagli che possiamo discutere, si passa invece alla generazione di dati nuovi, completamente mai visti prima, per cui questo è sicuramente un progresso recente e molto importante nel generare informazioni.Però adesso siamo ancora agli albori, per cui questo modello qui, sì, abbiamo visto belle cose, ma magari non abbiamo visto in realtà, come dicevo prima, anche tutti i test falliti, tutti i casi di fallimento e così via.E poi teniamo conto comunque che di base c'è un concetto, come dicevo prima, se entra spazzatura esce spazzatura, nel senso che comunque la qualità dei dati che devono entrare lì dentro, dei test che devono entrare lì dentro, è molto importante, perché questi modelli non capiscono il concetto che c'è nel testo.vanno solo a cercare delle strutture, delle forme ricorredi nei testi che tu hai scelto e che hai dato dentro, per cui il risultato in output è comunque estremamente legato all'input, loro non è che si inventano nulla di particolarmente nuovo, se tu sbagli a dargli l'input, a darlo destrimale, questi non è che possono fare comunque i miracoli, per cui i testi poi dopo fallati con errori di scrittura o comunque che non sono particolarmente utili, ci sono tanti.Certo c'è l'entusiasmo di magari gente che vede per prima volta questi risultati, dice che è arrivato il nuovo scrittore, però in realtà c'è ancora tanto da fare.Non toglie che in qualche caso particolare sono utili, se tu pensi a una tabella di dati per esempio, che tu metti sul tuo sito web, questi sistemi qua magari possono leggere la tabella dati e dirti "eh il dato incrementato del tot è diminuito rispetto al tot", quindi magari delle frasi standard, delle letture di contesti particolari possono essere utili, ma da lì a pensare che sia chi crea contenuti può comunque dormire tranquillo.Assolutamente sì, ti faccio una domanda, anzi faccio una considerazione prima, a proposito delle tabelle dati che diceva mi è sembrato di leggere nella rete che in realtà proprio nel test di completamento di una tabella dati di gpt3 c'era un problema in merito alla se non sbaglio la popolazione dell'Alaska o di uno stato in particolare perché sì lui prevedeva e autocompletava la tabella inserendo i dati all'inserimento del nome dello stato però i dati erano sbagliati quindi in realtà anche là è uscita la discussione su twitter che ho seguito però secondo me la particolarità di gpt3 è una Roberto ti dico ti dico quella che è la mia opinione da full stack developer è appunto nell'apertura delle api da sviluppatore spesso il mondo dell'intelligenza artificiale del machine learning è sempre visto con un certo fascino anche spropositato ma anche molto lontano dalla introduzione nelle nostre applicazioni se non in contesti come quello di amazon o di google dove hai quelle soluzioni già pronte da utilizzare per casi specifici quindi secondo me molto del fascino nel mondo degli sviluppatori che sono quelli che sono andati in brodo di giugiole quando hanno visto la presentazione di gpt3 sta nel fatto appunto che stai dicendo agli sviluppatori e ai caro sviluppatore io ti do questo set di api che tradotto in italiano vuol dire io ti libero di tutti mal di testa, ti libero del bisogno di avere degli esperti di machine learning nel tuo team, esperti come Roberto che ti possono instradare, tu hai una roba già pronta out of the box per fare tutta una serie di operazioni che sono tantissime molto diverse tra di loro e quindi dal mio punto di vista questo ha catturato l'attenzione degli sviluppatori e ha creato poi questo hype attorno a questo progetto? No, questo è sicuramente vero perché l'economia dell'API è stato uno dei progressi notevoli in questo periodo, mentre prima questi algoritmi erano riservati a persone del settore, molto tecniche, con grandi specializzazioni e così via, questo ha permesso sicuramente l'apertura di massa a tutti quanti.Però comunque, ricordiamo sempre che sono degli strumenti, come se avessi da usare un cacciavite, Devi prima pensare a quale cacciavite usarlo, come usarlo, quando usarlo e così via, dopo poi lo vai ad usare.Non vorrei facilitarsi troppo a scaricarsi responsabilità dopo sulle API e così via, perché ci vuole sempre un pensiero dietro, per quando riguarda intelligenza artificiale ancora di più, che ti permette di scegliere quale usare, cosa usare, come usarli e così via.Certo ti facilita il lavoro perché non devi più scrivere tonnellate di righe e tutto il resto, ma non vorrei dopo scaricarsi appunto troppo la responsabilità tutto sulla funzione che hai chiamato.non si critica comunque dietro di quello che si può fare e investare.Poi certo la comodità perché non devi più fare mille interfacce, librerie, quello e quell'altro.Anche perché un esempio molto semplice è quello del podcast di Gitbar.Noi nel nostro sito utilizziamo il sistema di voce to text, voice to text, no? Di AWS.Però anche quella è una soluzione già bella pronta, utilizza immagino il machine learning sotto il cofano.Però mi sono reso conto poi utilizzandola tutti i giorni che in realtà va bene ma una soluzione così generica spesso non riesce a darti dei risultati sperati.Faccio un esempio.Sì, ma quello è vero perché secondo gli obiettivi che tu hai poi devi capire se spesso capita che per quel 10% di soluzione particolare che tu specifica per te è tutto quando non va bene.Faccio sì, noi abbiamo un problema per esempio di dizionario.Il dizionario che usiamo qua su github è molto spesso molto diverso dal dizionario italiano del servizio transcribe di amazon quindi questa è una delle situazioni per le quali dici sì vabbè ok forse questa soluzione non fa per me vero è anche che amazon ti permette di configurare di importare parti di dizionario nuovo però comunque le soluzioni già pronte out of the box così forse per questo tipo molto particolare di ambiti forse non sono non sono le soluzioni migliori.Ti faccio una domanda dalla tua esperienza ad oggi quali sono gli ambiti nel mondo che ne so dello sviluppo in genere no? immagina dello sviluppo web dove pensi sia più interessante e intelligente utilizzare l'intelligenza artificiale.Quando dico intelligente utilizzare l'intelligenza è questo giro di parole volutamente inserito.Ma io lo vedrei anche nella fase di testing per esempio di fare tutte le possibili test su quello che possa essere per trovare gli errori e così via.Parli solo di sviluppo codice io lo vedrei nella fase di test e magari anche qualche sistema che è sicuramente artificiale adattiva che si adatta allo stile di scrittura dello sviluppatore in modo che cerca di capire i suoi tipici errori e quindi sapendo che bene o male il suo sviluppatore fa sempre quegli errori lì allora automaticamente lo aiuta nell'andare a fare il debug per togliere di mezzo gli errori.Sai che ho beccato proprio un tool che fa qualcosa di simile.In realtà hanno analizzato parte della codebase generale open source che sta su github e ti suggeriscono il codice da scrivere dato un inizio di riga che scrivi tu.Si chiama Codota questo questo questo tool.Io lo uso e devo dire che per linguaggi verbosi è davvero fantastico perché in realtà magari si è andato a leggere la documentazione della libreria e te ti ha dato già la mega stringa verbosa in java che altrimenti avresti dovuto scrivere a manina.Sì perché diciamo che se c'è uno schema di comportamento abbastanza tipico e frequente un algoritmo intelligenza artificiale può prendere questo schema di comportamento, seguirlo e magari fare il passo, stimare il passo successivo prima ancora che la persona lo fa.Come dire, come noi possiamo usare se lo usi per la profilazione degli utenti perché vedi come la persona compra sull'e-commerce e puoi immaginare quale sarà il prossimo prodotto che compra.Ma nello stesso modo lo puoi rivolgere anche verso la persona che scrive dei testi, codici e così via e cominciare a vedere mano a mano come cominciare a scrivere, vedendo che scrivi sempre in quel modo, in quelle strutture e così via, magari pensi già che l'errore sono sempre quelli o magari lo sistema ti aiuta dicendo so che se usi sempre questa libreria in quanto scrivi queste parole automaticamente ti propongo quale libreria usarle eccetera eccetera.Sempre comunque come supporto alla persona per aiutarlo a risolvere i problemi.Non parliamo strutturamente di programmatori, che da sostituire con intelligenza artificiale e così via che non è il caso.Esatto, magari ci evita di fare quei quei lavori manuali che in realtà possono essere ripetitive.Se ci sono delle attività di ripetitive ben definite allora quelli si possono realizzare.La fase creativa che ha lo sviluppatore a monte è ancora lontana.Anche perché dovremmo capire che cos'è l'intuizione, visto che una parte del nostro lavoro è data dall'intuizione.Ti faccio un'altra domanda.In realtà quando si parla di neural network si pensa a un concetto super moderno, all'avanguardia, al futuro, ma in pretrasmissione mi dicevi che le basi delle reti neurali risalgono a tanti anni fa, giusto? Parlavi di un libro.No, no, quello è sicuramente vero nel senso che i primi modelli di retinolalia, anche quelli, anche lì risaliamo all'epoca della seconda guerra mondiale quando si cercava di Alan Turing e così via e poi dopo di che negli anni 50-60, con Mac Ulock, vabbè non diamo in dettaglio poi se qualcuno li vuole li fornisco, ma parliamo di roba degli anni 1950-1960 in cui per esempio anche quel docente di cibo lì, Edoardo Cagnello italiano, ha avuto delle idee sul formule matematiche per riprodurre il comportamento del neurone biologico.Però se guardiamo il neurone biologico, per quanto è complicato, vediamo la formula matematica che è un'addizione, una moltiplicazione, una funzione, vediamo quando siamo ancora lontani.Però comunque oggi anche con qualche cintillaggio di neuroni possiamo realizzare una piccola rete orale che magari ci riconosce delle immagini, che magari ci dice se abbiamo un tenda in quale classe sistemarlo.Quindi prendiamo quello che c'è di buono nel nostro cervello, come i nostri neuroni che abbiamo all'interno, vediamo un po' come riprodurli e fare delle soluzioni di calcolo che altrimenti a mano non ci saremmo mai arrivati scrivendo le formule o il codice normale.Quella portata nel neural network, l'Itinioral e il deep learning, quando abbiamo migliaia e migliaia di neuroni.Ma oggi basta chiamare una libreria come TensorFlow e altre per comunque avere appunto come diceva prima creare una rete in pochi passi.Esatto e adesso Roberto ci ha appena condotto nel paese dei balocchi."e conduco nel paese dei balocchi" "ah il paese dei balocchi" infatti ti volevo chiedere, nella cassetta degli attrezzi di un data analyst, quali sono gli strumenti che troviamo? Gli strumenti sono principalmente di tre tipi diciamo, quello che dicevamo lì dell'input per le pulizie quindi anche strumenti di visualizzazione, anche librerie, ottimi servizi web che visualizzano le dati per capire cosa buttare, cosa tenere e così via.Poi abbiamo quelle famose librerie di analisi e poi abbiamo anche tante belle librerie di visualizzazione.Io uso tantissimo D3, GIS e così via per creare grafici e quindi abbiamo librerie per pulire i dati, per analizzare i dati e per analizzare l'output.Quindi i nomi ne abbiamo tantissimi, con librerie in praticamente tutti i linguaggi che vogliamo.Quindi io non mi vincolerei al linguaggio, conosco Java, va bene, la libreria java te la trovo, conosco Python, libreria Python, volendo ho anche libreria in assemble per fare le regine orali, quindi aiuto! Come dicevamo prima il primo esperimento di rete orale l'ho fatto con il basic comodo 64 nel 1900, finita negli anni 80, quindi prima delle librerie bisogna certamente studiarle, scegliere, ma oggi quello è l'ostacolo minore.però mi è sembrato di vedere diciamo nei tutorial, i quick start che diciamo i linguaggi più utilizzati sono comunque python, R...si sono linguaggi che nascono con la loro base di analisi statistica per cui sono comodi ecco anche MATLAB per dire sono comodi sicuramente per questo caso però se uno volendo non c'è problema, qualsiasi libreria, qualsiasi linguaggio mi dai ti posso dare le librerie che devo usare.Poi certo ci sono quelli più o meno comodi, più o meno facili.In ambito enterprise per esempio ho visto che utilizzano tantissimo Scala per fare questo tipo di lavoro.Sì, c'è anche Spark e tutto il resto.Esatto, infatti c'è Spark ML.C'è anche però non mi rimanevano le grandi dimensioni dei dati, perché poi dopo avevamo milioni di dati e così via.Ma quello non credo sia, se uno ha un buon metodo di studio può facilmente aggiornarsi, però se tu non sai la differenza tra una retina orale e una retina neurale, devi accendere i due tipi, o anche logica fazio, o algoritmo genetico, tutto il resto è inutile buttarsi sulla libreria, cioè butta a fare retina orale senza nessuna modalità di pensiero a priori, fallisce subito e comunque sia sono attività che consumano molto tempo e il tempo non si può consumare, non buttare via in esperimenti così.Faccio una domanda oggi ci troviamo davanti a tutta una serie di framework non per ultimo c'è tensorflow per semplificare rimango un po generico lo scrivere del codice è legato all'intelligenza artificiale ok? ma come vedi questi framework e quanto questi framework rischiano di allontanare dalla visione generale e anche dalla logica che sta sotto i newcomers quindi le persone che si approcciano a questo mondo quanto sono spinti dal tuo punto di vista a studiare i framework e non ad andare a capire bene come quello che si sta facendo? Purtroppo è una tendenza che la vedo molto spesso attuare quindi andare direttamente sul tensorflow e si va bene seguire i tutorial tensorflow ma magari chi arriva per la prima volta lo può fare perché magari hai bisogno di conoscere l'ambiente e tutto il resto ma come diciamo anche prima se poi hai trovato una soluzione particolare problemi molto particolari è facile che ti portano fuori strada.Certo perché si avvicinano alle prime volte ai bisogni di soluzioni rapide con un basso maggine di error, con un basso maggine di qualità, una soluzione generica, ti semplificano la vita.Dipende sempre dal contesto, dalle risorse che hai a disposizione.Tanto bello male sotto sotto gli algoritmi e le loro basi sono un po' uguali per tutti.Cioè una rete neurale fatta con Google sotto sotto è comunque un modello neurale che ti propone anche Amazon e così via.Se non sai il concetto di ritenere orale, qualsiasi libreria che ti intraprendi non è che cambia molto.Non riesci a gestire le cose.Soprattutto i tanti parametri che ti chiedono di ottimizzare, se non conosci quelli, non hai studiato quelli, non è che puoi fare prova ed errore finché non ti esce la soluzione.Ecco che va bene la libreria, ma dovendo studiare questo contesto direi che il 70% di pensiero strategico sui modelli, come funzionano e così via, il poi da la pratica, da sceghetti alla libreria eccetera.A questo punto ti faccio una domanda così a brucia pello per tutti gli ascoltatori che vogliono approfondire l'argomento.Partendo da una base di conoscenza di un classico full stack developer quindi un po' di javascript, ci buttiamo in mezzo anche un po' di php e poco altro e qualche algoritmo sai che ne so, Qual è il percorso formativo che suggerisci per le persone che vogliono approfondire l'argomento? Beh un po' come dicevamo prima vuoi fare apprendimento supervisionato o apprendimento non supervisionato? Nel senso che se vuoi fare apprendimento supervisionato hai qualcuno che ti segue la formazione quindi ci sono tutti i vari corsi Corsera Udemy e così via.Se vuoi farti auto apprendimento non supervisionato di libri ce ne sono tanti in giro, io ne ho scritto uno proprio pensando alle persone che vogliono entrare in questo settore ma non hanno quelle grandissime basi matematiche, magari vengono spaventate prendendo certi libri e trovano un mare di formule, però vogliono cominciare a scrivere qualcosa, a fare delle prove, a vedere cosa succede.Direi che comunque sì, non è molto difficile, un po' di conoscenze matematiche ci vogliono giusto perché qualche termine, matrice, vettore e così via ti passa davanti, ma non è che devi avere per forza grandissime conoscenze approfondite.Se vuoi usare le librerie, il TensorFlow, eccetera, basta che proprio dei concetti minimali su il tensore e così via.Quindi un libro di introduzione generale dell'intelligenza artificiale è qualche libro sia introduttivo, che non sia troppo specialistico.L'idea migliore è sempre nei corsi guardarsi i programmi e nei libri guardare l'indice e magari le prime pagine di assaggio.Dopodiché sicuramente tutti i libri generali sul data science, ovvero sulla scienza del dato, dell'informazione e così via.Poi dipende se vuoi usarlo nel tuo contesto o perché magari vuoi veramente cambiare lavoro e andare a fare tutt'altro campo se vuoi usarlo solo nel tuo contesto ci sono tanti libri leggeri facili da leggere che ti danno un'idea e quindi con poco tempo si può fare poi se uno vuole cambiare radicalmente le settore di lavoro allora deve impegnarsi in maniera più profonda.Vero, io diciamo che ho dato un'occhiata al mondo però una cosa che ho notato è che è un mondo molto vasto cioè quando si parla di intelligenza artificiale mi vengono in almeno tre o quattro professioni diverse legate a quella sfera, a quel mondo, dal data mining alla data visualization, perché prima hai parlato dei vari, i tre step dell'analisi del dato, quindi pulizia, analisi e visualizzazione che sono importanti.Sì, per capire quello che viene fuori.esatto io nella mia piccola esperienza ho giocato con un tool che si chiama prediction io, un tool della paci foundation perché mi serveva un tool predittivo per un e-commerce una roba super semplice.Lì c'è un sacco di applicazioni, possiamo fare un podcast solo sull'e-commerce.sì esatto per quello e poi ci sono molto interessanti i tool per l'analisi dell'utente all'interno del sito quindi del comportamento dell'utente che ne so l'analisi dei pattern di login oppure dei pattern comportamentali per capire se è veramente l'utente che sta navigando o qualcuno che ha rubato le credenze insomma ci sono c'è un mondo però devo dire che in realtà qualcosa la si può fare poi molto rapidamente all'austringersi dei requisiti l'aumentare dei requisiti alla fine si deve necessariamente optare per soluzioni custom un più articolate, un po' più complesse e quindi in quel caso si ha bisogno veramente di figure come come Roberto che fanno uno studio specifico in questo tipo di ambienti.Ti volevo fare l'ultima domanda prima di lasciarci.È una domanda che si lega un po' al lato etico del nostro lavoro.io mi chiedo sempre se esista o se sia necessario sviluppare un lato più forte dal punto di vista deontologico per quanto riguarda gli sviluppatori.Dal tuo punto di vista invece qual è il rischio dell'utilizzo dell'intelligenza artificiale e quando l'intelligenza artificiale non va usata? I rischi sono tanti, il mio punto di vista è quello che cerco di portare avanti io, l'intelligenza artificiale al servizio dell'umanità, quindi che aiuti a risolvere i problemi dell'uomo, non è tanto l'intelligenza artificiale che vuole sostituire l'umanità, i problemi sono tanti perché abbiamo problemi, potremmo parlare di problemi occupazionali ma con grandi tempi su uso di robot e quindi un figure di operai ma adesso anche analisti o magari si parla prima di creatori di contenuti che non troveranno più lavoro e così via, quindi c'è il lato occupazionale di persone sostituite dalle macchine.In questo periodo di pandemia c'è anche il lato di analisi diagnostiche fatte con questi strumenti, sperando che margini di errore, catastrofici, ho soprattutto, pochi giorni fa, su Rai 3, un programma tecnologico di soldati automatici che prendono anche l'iniziativa di intraprendere un conflitto, quello che poi tende ad andare, sembrare fantastico, senza magari le implicazioni, adesso sarebbe il caso di Porcel, un po' come le famose leggi della robotica di Asimov in cui si spera che un robot non agisca contro l'uomo ma chi ce lo garantisce? E questo può dimenticare dal fatto che comunque ci sono degli errori di calcolo, di funzionamento o qualche essere umano particolarmente cattivo che magari potrebbe decidere di utilizzare questi strumenti per fare del male, perché naturalmente c'è chi usa l'intelligenza artificiale per fare il bene ma c'è anche chi usa l'intelligenza per fare il male, però l'intelligenza artificiale è uno strumento che naturalmente può essere usato in una direzione che nell'altra, quindi sicuramente i rischi bisogna tenervi sott'occhio per evitare che poi questi strumenti invece che aiutarci a vivere meglio ci faranno vivere peggio.Devo stare molto attenti perché è come se io potevo creare degli strumenti che agiscono a favore o contro l'essere umano.I rischi ci sono e vanno studiati meglio ancora adesso che siamo ancora agli inizi.Assolutamente.Agli inizi relativamente ma comunque non abbiamo certamente ancora.Agli inizi un po' anziani esatto.Però rispetto magari a quello che si vede ad avere robot che veramente camminano in maniera autonoma ancora basta solo pensare alle problematiche delle macchine a guida autonoma su quello che succede in quelle macchine o quando con le macchine magari si trovano a decidere se investire una persona più o meno giovane o rispetto ad avere incidenti all'autista e così via.Sono strumenti che impattano sulla nostra vita quotidiana e quindi i rischi che succedono dei danni che ci creano dei problemi ci sono.Esatto, specie quando deleghiamo decisioni sensibili verso una macchina o un algoritmo poi diventa a quel punto il responsabile di quella decisione.Cioè cosa facciamo un algoritmo che sbaglia? Ci sono delle norme specifiche per quando riguarda per esempio l'attribuzione di mutui perché le regole dicono che la persona ha diritto di sapere perché gli è stato rifiutato il mutuo e in quel caso non puoi usare intelligenza artificiale tipo retinolare che dice sì no e poi non ti sa spiegare perché te l'ha rifiutato.I processi? Ho pensato ai processi di selezione e di analisi del curriculum.C'è tante soluzioni di intelligenza artificiale che analizza nel curriculum.Però tu cosa diresti se dovessi sapere che una rete neurale ti ha negato il lavoro perché guardate il curriculum e ha detto no e l'ha deciso magari una rete neurale invece che una persona che è stata dall'altra parte.Specie poi in contesti dove le reti neurali sono trainate con dei dati e la malizia o l'imperizia si nasconde appunto nel set di dati di training.Quante volte vediamo delle intelligenze artificiali che ne so come cortana mi sa che fosse, che hanno dei bias e dei pregiudizi raziali piuttosto che sono sessisti quindi ancora forse non siamo pronti per delegare responsabilità.A questo dipende sempre dal fatto che si diceva prima, uno sviluppo troppo veloce, la fretta di creare certe cose fa perdere il pensiero che c'è dietro.Se ci fosse un po' di attenzione quando si creano certe cose invece di correre in fretta e furia a rilasciare prodotti nuovi.Se ci fosse un po' più di pensiero strategico quando si creano queste cose allora magari tutto questo non si potrebbe e si può evitare.Invece magari la fretta di mandar via codice sviluppare mette il prodotto sul mercato così via in 448 e poi magari esce pieno di bug, di difetti e dopo se ne vedono le conseguenze.Posso fare una provocazione? Spesso questa fai tu? Si, si la faccio io, me ne prendo le responsabilità.No, spesso questa fretta di voler rilasciare è dato anche dagli schemi, i modelli di business del mondo tecnologico di oggi.Eh sì.Quando il mondo delle start up, il mondo rompi tutto e sbattitene di quello che succede.Eh ragazzi va bene rompi tutto, però poi devi anche prenderti in carico dei coach, anche capire cosa lasci dopo perché il tuo impatto nella società è importante nel momento in cui la tecnologia non è più un giocatolo per bambini che guardano star wars ma è un elemento fondamentale per tutti gli esseri di una società quindi insomma la mia provocazione è proprio legata ai modelli su cui basiamo lo sviluppo economico però apriremo dei capitoli troppo lunghi? quello che dico io è che tutti quanti dovremmo comunque leggere qualcosa conoscendo l'intelligenza artificiale visto che comunque avrà un impatto sulla nostra vita.Abbiamo tanti libri divulgativi, tanti blog, tante altre cose da leggere.Non dico entrare nei dettagli tecnico-matematici ma almeno rendersi conto di quello che succede, quello che succederà e rendersi conto che avremo comunque a che fare con questo sistema.Abbiamo a che fare già adesso perché il nostro telefono cellulare è stra pieno di roba di qual tipo quindi un po' più di conoscenza anche per essere non subire quello che ci succede ma per essere parte attiva quindi un minimo di cultura dell'intelligenza artificiale bisogna farla, bisogna istruire le persone, fare un po' di divulgazione che non significa andare a che fare con le grandi formule ma consapevolezza, conoscenza.Oltre a 1984 di Orwell, quali sono le letture che suggerisci? Ti posso dare due o tre libri divulgativi, il mio è un libro più tecnico, programmatore.Mettiamo nelle note dell'episodio tutto.Sì, quindi è quello più rivolto a chi vuole smanettare, provare e così via.Chi vuole invece delle riflessioni sull'intelligenza artificiale, ti posso dare un po' di titoli da leggere, adesso poi mi attrezzo e ti mando il link.ok, non ha delle letture generali per farti capire il contesto, le problematiche e così via, d'altra parte per chi vuole poi fare un po' di prove.Allora li mettiamo nelle note dell'episodio, un regalo che...Si è meglio, faccio prima più che dirlo a parole qui.No, no facciamo così infatti, è un regalo che Roberto ci sta facendo.Prima di lasciarci Roberto ci ricordi i tuoi contatti, come acquistare il tuo libro, dacci come visitare il tuo blog, dacci qualche riferimento.Beh se se cercate Roberto Marmo.net oppure cercate Roberto Marmo su LinkedIn e Facebook, li trovate facilmente.Il libro si chiama "Ritmi dell'intelligenza artificiale" dell'editore Eubry.Adesso poi mano a mano ci metterò altri materiali, cercherò di renderlo ancora più interattivo.Non sarà soltanto programmazione, ma sarà anche riflessione, curiosità e anche un tema che sto studiando.I temi in cui mi porto avanti nel blog sono due.La creazione dei contenuti, quindi queste nuove forme di generazione, è una sorta di hacking, di cercare di rompere questi giocattolini, perché anche le reti neurali hanno i loro difetti, hanno problemi di sicurezza, bug, che si possono saltare e così via.Quindi vorremmo passare così da una sorta di giocare, mettere alla prova questi sistemi, vedere quando sono efficaci e anche trovare i punti deboli, perché magari oggi si sorpassa, non si pensa ai punti deboli delle reti neurali, ma in realtà si può anche imbrogliare una retina orale con certe immagini particolari quindi indurre l'errore e così via.Quindi facciamo così, noi entrambi abbiamo richiesto l'abilitazione all'API di GPT3 aiuto con queste sigle mi perdo sempre.Se sei d'accordo appena ci autorizzano, tanto sono sicuro che autorizzeranno prima te di me ne sono pronto a metterci la firma.Non so quali criteri, anzi magari a me non le fanno vedere che ho paura che poi...Gli alle rompi.Faccio un po' di debug severo e test severi poi magari...Però dai mi piacerebbe risentirci e fare che ne so una live su youtube o su twitch dove giochiamo un po e ci aiuti a capire mettendo le mani in pasta qualcosa in più.Che ne dici? Si proviamo perché l'importante è sperimentare e non subire certe tecnologie.Sperimentare, conoscere, mettere alla prova, giocarci, sempre con lo spirito del gioco creativo che è quello che ci porta avanti come esseri umani rispetto alle macchine.Esatto è quello che ha contraddistinto poi l'approccio hacker alla cosa.Esattamente.Perfetto io Roberto non posso far altro che ringraziarti metto tutti i tuoi contatti nelle note dell'episodio quindi se avete voglia di o avete bisogno di più informazioni o consulenza in merito avete tutto nelle notte quindi contattate Roberto lui è il ninja di questo argomento.Poi mi raccomando comprate il libro io adesso lo ordino perché mi ha incuriosito il fatto di andare a leggere e a capire gli algoritmi dell'intelligenza artificiale senza annegare in matematica visto che ero un discreto sommarello io all'università in analisi.No, lo puoi fare sicuramente, naturalmente chi vuole creare strumenti nuovi ha bisogno di grosse basi matematiche, ma chi deve solo usare, far funzionare si può cavare.Si, si, agirei da muratore non da architetto o ingegnere, tranquillo, mi accontento di essere un un operaio.Detto questo noi ci aggiorniamo la prossima settimana, io ringrazio nuovamente Roberto, rinnovo l'invito poi in un altro episodio insomma dove possiamo andare a sperimentare a giocare un po' col codice quando riuscirò ad attrezzarmi anche per fare qualche diretta video di qualità decente.Noi ci aggiorniamo a giovedì prossimo non prima però di avervi ricordato i contatti.Potete scrivermi a info@gitbar.it via email oppure a @brainrepo tutte le puntate con le rispettive note degli episodi le trovate su www.gitbar.it e dalla prossima puntata sarà attivo anche il gruppo telegram dove possiamo scambiarci contenuti, idee, proposte in modo più semplice più fluido proprio perché notavo che la comunicazione all'interno della community con gli email e con twitter era un po' farraginosa.L'ultima cosa mi raccomando se l'episodio vi è piaciuto aggiungetelo al vostro client di podcast preferito e se vi è piaciuto davvero tanto entrate su iTunes o sull'app podcast di Apple e lasciate una recensione.Noi ci aggiorniamo la prossima settimana sempre giovedì prossimo anche giovedì prossimo con un nuovo ospite e nulla da lione è tutto alla prossima ciao gitbar il circolo dei full stack developer una volta a settimana ci troviamo davanti a due birre e con brain repo parliamo di linguaggi e tecniche di sviluppo web di metodologie e degli strumenti mancabili nella cassetta delle attrezzi dei Full Stack Dev.[Musica]