Ho da poco cominciato a seguire un corso di informatica alla mia università, il professore per farci capire come “pensa” un computer (e quindi come strutturare i programmi che scriviamo),la prima lezione ci disse questa barzelletta: un programmatore va a fare la spesa e sull’ uscio di casa la moglie gli dice “ compra un chilo di pane e se hanno le uova, comprane 12”. Poco dopo il programmatore torna con 12 chili di pane e la moglie sconcertata gli chiede cosa gli sia saltato in mente, lui, confuso, risponde “avevano le uova”.
@abacuc198310 ай бұрын
😂 proprio così bellissimo paragone
@thazup22110 ай бұрын
Bellissima😂😂😂
@mariomassimosergio305510 ай бұрын
0:33 😂
@allessaPacilio10 ай бұрын
Grazie
@aarn-munro10 ай бұрын
La logica non fa una piega. Sempre che la logica in qualche caso abbia delle pieghe
@SBAKDOWJ11 ай бұрын
ringrazio il giorno in cui i calcoli di youtube hanno deciso di consigliarmi il tuo canale
@lucianomengoli310410 ай бұрын
A me invece l'aveva suggerito Facebook, prima di espellermi dalla sua comunità.
@LorenzoPelaccia9 ай бұрын
ringrazia l'IA per questo 😆
@adrianobanuta25883 ай бұрын
@@lucianomengoli3104 AZZ! Il termine comunità su FaceBook non esiste. Eri per caso nella Comunità dei Testimoni di Geova? Perché in questo caso sono stati gli Anziani ad espellerti, anzi a disassociarti.
@ugoamaldi805611 ай бұрын
Orca miseria ma il dialetto romagnolo è la lingua nera di Mordor!!
@paolohollit740010 ай бұрын
Vedendo a quanti comunisti ci sono potrei prendere sul serio la tua affermazione 😂
@ersticktdenzeitgeist10 ай бұрын
ahaha a tal dègh!
@tommvso_perry11 ай бұрын
signor Mercadini, sono felice di annunciarla che mesi fa l’ho scoperta col suo primo video sull’AI, e dopo numerosissimi video e spettacoli a cui ho presenziato, sono felice di essere qui col suo secondo video sull’argomento
@gregorjcocco10 ай бұрын
Il relatore del video ha ragione nel dimostrare le limitazioni dell'intelligenza artificiale, mostrando come GPT non possiede conoscenza o esperienza effettiva ma si basi su calcoli probabilistici. Questo è vero poiché l'IA non può comprendere il mondo in modo uguale a un essere umano e le sue risposte sono basate su dati e algoritmi, non sulla comprensione o l'esperienza personali. Il relatore ha anche ragione nel contrapporre l'approccio di GPT alle suggestioni musicali di Spotify per dimostrare che l'intelligenza artificiale non può comprendere veramente concetti come la magia o le melodie ancestrali, limitandosi a generare risposte basate su calcoli probabilistici. Questo è vero poiché l'IA non ha una comprensione umana della bellezza e dell'emozione, ma solo una rappresentazione matematica di queste concettualizzazioni. Infine, il relatore esprime fascino e disagio riguardo alle differenze tra intelligenza umana e artificiale, riflettendo sulle potenziali somiglianze sotto la superficie ma anche sulla profonda diversità tra l'intelligenza umana e quella artificale. Questo è vero poiché l'IA può eseguire compiti complessi come GPT o generare suggestioni musicali, ma non possiede una comprensione umana della bellezza, dell'emozione o del significato di queste cose. Il video si chiude con la recitazione di una poesia di Nino Pedretti sia in italiano che nel suo dialetto romagnolo originale, dimostrando come l'arte umana possa esprimere emozioni e concetti in modo più profondo e personale rispetto all'intelligenza artificiale. (Analisi effettuata dalla mia AI locale basata su modello Wizardlm-13b) G.
@MrAdriande10 ай бұрын
ahahah!
@RaffaeleGaito10 ай бұрын
Ciao Roberto, questo è uno dei pochi video tuoi dove mi trovi al 90% in disaccordo 😬 All'inizio stavo per scrivere un lunghissimo commento con alcune considerazioni, ma poi ho pensato di farci un video. Se mai leggerai questo commento buttaci un occhio, che magari nasce un confronto interessante dalla cosa 😊
@simonemarrone792710 ай бұрын
@@leonarix non è esattamente ciò che dice lui. La tecnologia che sta alla base dell’IA, non è compresa fino in fondo neanche da chi l’ha programmata. Non sono meri calcoli, è qualcosa di più… detto questo il messaggio è chiaro e in parte condivisibile, ma ci sono dei punti critici nel suo discorso
@ParsevalMusic10 ай бұрын
Purtoppo ho guardato il tuo video e sono d’accordo con te su tutto
@henriolamachannel10 ай бұрын
@@leonarix Nel video non c'è alcun vero messaggio che non sia una disamina di uno strumento su presupposti erronei. Se vuoi criticare uno strumento, devi testare la versione più rappresentativa. Non puoi criticare ChatGPT dopo aver utilizzato esclusivamente la versione 3.5. Inoltre, la connessione tra la mente umana e la macchina non è una novità di oggi. Ho avuto la fortuna di avere Giulio Giorello come professore di Filosofia della scienza, e lui ne parlava già nel libro "L'automa spirituale: Menti, cervelli, computer", curato insieme a Piergiorgio Strata
@alimbrajii365710 ай бұрын
Ben lungi dal divenire concreta. Tutto qui
@vittoriogarrafa96069 ай бұрын
Scusate, ma se uno sbaglia lo sbeffeggiamo o gli spieghiamo dove sbaglia?!
@CreateChannelHere11 ай бұрын
8:52 sostanzialmente l’architettura del linguaggio di ChatGPT è basata su reti neurali che vengono utilizzate per generare una risposta. Quest’ultima si basa sul percorso specifico che l’IA compie durante l’analisi della domanda. Quando il percorso che segue porta a dei dati insufficienti o ad una mancanza di informazioni rilevanti risponderà con “non so”. Mentre se, eseguendo dei calcoli probabilistici, il percorso porta l’IA ad avere un grado di certezza sufficiente per dare una risposta risponderà. Il fatto che sia probabile non significa che sia vero, per questo porta a volte (se non spesso) a dare come risposte delle castronerie come dici bene tu. Ottima riflessione come sempre!
@SuppressWarning11 ай бұрын
Non esiste il concetto di percorso. Una rete produce in output una risposta indipendente dalla query di input. Il "non lo so" è semplicemente dato dal fatto che è stata trainata ad associare il "non lo so" ad query che noi etichettiamo come cose che lei non dovrebbe conoscere
@CreateChannelHere11 ай бұрын
Non mi sembra scorretto parlare di percorso. Il modello compie una sequenza di passaggi mentre elabora l'informazione nei vari layer per generare la risposta finale. Per quanto riguarda la questione del training in base alla risposta “non so” hai ragione, ma del resto siamo noi ad attribuire il significato alla frase “non so”, per chatGPT è una risposta.
@SuppressWarning11 ай бұрын
@@CreateChannelHere ok ho capito cosa intendi ora. Si allora in quel caso ci sta
@anassimandro03411 ай бұрын
Video SEMPRE interessante... Ma come mi ha emozionato la poesia finale... Grazie Roberto. Grazie di donare il tuo tempo (quello che non si vede nei tuoi video) a prendere, esperire,elaborare e divulgare tutto ciò che "mastichi" nella tua vita. Fa bene all'anima ascoltarti ✨🧗♂️
@menox8611 ай бұрын
Un'altra volta complimenti, perché con le tue parole e i tuoi pensieri, in pochi minuti riesci a distillare concetti che aprono le prospettive, che fanno riflettere, e infine ispirare ulteriori ragionamenti. Forse è questa un'altra cosa che ci differenzia nettamente da qualsiasi ai: l'intento, la volontà di raccontare ma con lo spirito di chi vuole ispirare a ulteriore ragionamento, che sia consapevole o meno. In definitiva l'idea di aprire, mentre ciò che fa un chatgpt o simili, al momento è chiudere.
@RickSanchez78511 ай бұрын
Video molto interessante. In realtà anche l'uomo quando ricorda un evento compie un atto creativo, non abbiamo un database con i dati rigidi, ma ogni volta riformuliamo il ricordo e lo modifichiamo. Anche noi spesso diciamo cose con certezza che poi si rivelano errate. Viceversa quando si crea qualcosa attingiamo alla memoria per riformulare il già detto. Anche noi abbiamo i falsi ricordi, anche noi abbiamo le allucinazioni. Da questo punto di vista a me chatGPT sembra più vicino all'uomo che ad un calcolatore. La differenza sostanziale a me sembra il grado di consapevolezza e di errore. Modificando un po' il prompt ottieni risultati migliori con la stessa domanda. Se ci pensi la stessa cosa avviene anche con noi, più hai il contesto della domanda e più sei certo di non uscirne fuori.
@ugobagna11 ай бұрын
Completare quello che non si ricorda con dettagli verosimili ma non veri è diverso da inventarsi completamente un profilo (poeta Trentino ladino invece che romagnolo, ahaha) sulla base di un oscuro algoritmo statistico, ci vedo ben poca affinità dei due processi. È l'abisso che separa la coscienza dalla non-coscienza...
@RickSanchez78511 ай бұрын
@@ugobagna ah ok perché a differenza dell'oscuro algoritmo il funzionamento del nostro cervello invece ti è più chiaro.
@albertocattaneo462711 ай бұрын
Non per nulla "allucinazione" (hallucination) è il termine tecnico usato per descrivere questo genere di fenomeni nei Large Language Model come chatgpt
@raffaelefederico542711 ай бұрын
Ad un livello molto più profondo di quello che siamo abituati a intendere normalmente noi quando parliamo di intelligenza anche quella umana funziona in modo non molto dissimile da quella artificiale. I ricordi umani sono dati dalla nostra rete di neuroni che si arricchisce ogni volta che memorizziamo qualcosa, un computer scrivere una cella all'interno di un supporto di memoria, tecnicamente le due operazioni sono analoghe. Formulare un pensiero o dare una risposta ad una domanda è il risultato di una elaborazione del nostro pensiero sulla base delle informazioni contenute nella nostra memoria, i computer fanno sostanzialmente la stessa cosa solo che sono enormemente più limitati di noi, ma, di nuovo, ad un livello di funzionamento profondo le differenze sono minori di quello che crediamo. Anche un protozoo è vivo, fa una certa esperienza della vita se così si può dire, e quindi ha una pur infinitesimale intelligenza in un certo senso, al suo confronto però direi che un computer è enormemente più intelligente, eppure noi ci siamo evoluti dai protozoi nel corso di miliardi di anni. Alla fine è tutta una questione di quanto è raffinato e perfezionato il sistema.
@alincpkfly11 ай бұрын
@@raffaelefederico5427Direi che a livello superficiale sembriamo simili perché ad un livello più profondo si vedono le differenze.. però mi dispiace ma siamo più complessi di cosi, non viviamo solo di domande e risposte semplici e soltanto ricordi.. c'è molto di più nella coscienza umana e i computer e l'Ai ancora non si possono comparare mi dispiace, per quanto vi piaccia giocare con l'immaginazione, cosa importante che all'Ai manca..
@asiafracassi582311 ай бұрын
Ma quindi... Il tartufo è un fungo o un tubero?
@artiko88811 ай бұрын
Ehmm mi scuso per la mia confusione precedente... 😂
@mauriziodifant4399 ай бұрын
Il tartufo è un fungo ipogeo...
@jilmartinet933515 күн бұрын
È un fungo
@Ettoredecarmine11 ай бұрын
L'essere umano tramite input multimodale (sensi) si occupa di fare un fine tuning della rete neurale più efficiente e continuo, il che rende la memoria un processo creativo (embedding). Avere esperienze è semplicemente il modo con cui chiamiamo questo processo di fine tuning molto sofisticato, mediato dall'ippocampo e dall'amigdala (processo di feedback). Che l'utilizzo di una rete feedforward e della back propagation non possa essere altrettanto efficace se ne può discutere. Tuttavia conosco alcune persone che quando "non sanno" generano frasi senza senso sulla base di qualche falso ricordo. Il fatto che questi meccanismi possano raggiungere livelli di efficienza, creatività e spontaneità ragguardevoli ci distoglie dal fatto che le reti neurali "artificiali" siano bio-ispirate. Per coloro che sostengono l'assoluta inestricabilità del cervello umano, che provino a risalire alla logica di un LLM a partire unicamente dai pesi dell'ultimo layer. L'extreme learning (la capacità di una rete di skippare layers intermedi e allenare solo l'ultimo strato con ottima accuracy) ci pone difronte alla possibile conclusione che l'intelligenza sia proporzionale, con leggi altamente non lineari, ad alcuni parametri quali la dimensione stessa della rete. Basterebbe avere una "replica logica" del cervello umano montata su un robot della boston dynamics dotato di sensori tattili, audiovisivi e di temperatura per emulare quasi al 100% l'esperienza di una conversazione con un amico.
@guidonicodemi391611 ай бұрын
Ottima argomentazione
@MaryArsenica23 күн бұрын
Con questo commento mi sono innamorata (Da neo amante della robotica, delle meccaniche della mente digitale e del suo sviluppo in futuro!) Praticamente il tuo commento me lo studio. 😂
@mattiapetiti556111 ай бұрын
Ciao Roberto.. Provo tanta stima nella tua persona..profonda, sincera, colta e divertente. Volevo riflettere insieme a te sulla reale presa di coscienza di quello che sta succedendo in termini Di intelligenza artificiale, o comunque sia di questa nuova "epoca". Avrei miliardi di domande da farti, purtroppo però il commento al video è l'unica cosa piú vicina che posso permettermi, giustamente. Vado con la domanda che sintetizza in malo modo il tutto: Riguardo a questo video, è tua intenzione sgonfiare l'"Hype" insieme ai timori e speranze che lo sviluppo tecnologico sta portando? Perche se questo è il punto non mi trovo d'accordo sul metodo. Perché è inutile secondo me utilizzare parole o termini che definiscono qualcosa che non è finito ma in continua evoluzione. Credo che quello che deve far riflettere non siano tanto i risultati attuali ma la potenzialità di sviluppo che hanno questi "Software". Ormai una delle più grandi domande che mi faccio è capire dove sono i limiti, Dove sono i limiti tra calcoli matematici "umani" e quelli artificiali, Per poi finire alla solita grande e affascinante Domanda, Chi siamo e perché siamo qua.😂❤ Ti ringrazio per quello che fai e ti chiedo scusa per la grammatica e le mie lacune sull'argomentazione poco chiara. Sono solo un semplice operaio molto curioso e stanco a quest'ora della giornata. In bocca al lupo per tutto❤
@RobertoMercadini11 ай бұрын
Ciao Mattia! Il video voleva essere una riflessione sulla differenza fra l'intelligenza umana e quella artificiale. A volte ci sfugge, perché gli output di un software come ChatGPT sono straordinarie imitazioni del linguaggio umano. Ma, secondo me, c'è una differenza abissale. Per esempio, bel video rifletto sul fatto che il concetto stesso di "sapere" nel coso dell'intelligenza artificiale perde significato (o, se vuoi, ne assume uno completamente nuovo). Ecco era più questo, cioè una riflessione filosofica, che non il tentativo di sminuire questa straordinaria tecnologia.
@moreno110511 ай бұрын
Ciao sei bravissimo, meriti più spazio a splendida cornice, vogliamo interventi più lunghi, dillo a Geppi !!!
@michelebaroni514311 ай бұрын
Bel video, ma non ho capito.... Tito Balestra è un fungo o un tubero??
@tommasopapale17411 ай бұрын
Bella questa!
@ersticktdenzeitgeist10 ай бұрын
haahhaha
@Francesco-m5mАй бұрын
Ovvio,é un funghero
@rekix7811 ай бұрын
Si comporta più o meno come un tipico studente all' interrogazione che si arrampica sugli specchi 😂
@ilmondodifaxe82169 ай бұрын
Però lo fa bene
@artiko88811 ай бұрын
Mai chiuso chat gpt così velocemente
@quartadimensione53211 ай бұрын
😂😂😂😂
@henriolamachannel10 ай бұрын
Ha testato Chatgpt 3.5 che è gratis e non sa nulla
@Alex-to4ig10 ай бұрын
@@henriolamachannelChat gpt 3 è vecchio e ha molti bug,su Bing c'è Gpt 4 che è meglio ma ha ancora tanti errori e ovviamente non sa le cose,cerca solo di formare risposte coerenti in base a certe fonti In ogni caso parliamo di intelligenza artificiali ai suoi albori,fra centinaia di anni sapranno più di quanto qualsiasi umano si possa permettere
@Dany_Mory7610 ай бұрын
@@henriolamachannelGoogle Bard è superiore. Figuriamoci quando rilasceranno Gemini.
@artiko88810 ай бұрын
@@henriolamachannel non sa nulla manco quello che ho io a pagamento. Ha più dati ma non sa. Una macchina non può sapere nel senso vero della parola. Sveglia, sapere vuol dire avere coscienza e consapevolezza di quel che si espone non organizzarlo tramite programmazione, basata su reti neurali o meno. 😂
@Lucatantos6 ай бұрын
Complimenti per la lettura della poesia! Molto intenso. 👏👏👏
@tendadeipopoli98210 ай бұрын
Il nostro cervello pesca informazioni in memoria, le mette insieme reagendo a tutte le variabili del caso e da risposte... La vera differenza è che noi prima di questo abbiamo esperienza dell'esterno e coscienza della diversità tra io e il resto. Chat gpt è una scatola chiusa e omogenea: pesca bit e risponde bit, senza esperienza del diverso da se, senza esperienza di se e senza coscienza. Gran video ❤️
@danielemanca278210 ай бұрын
tutto molto bello. peccato che si prendera' un'erorme fetta dei lavori che fanno gli umani e un'enorme fetta della parte piu' banale della creativita' umana. avoja ad incensare quanto siamo belli e speciali. non lo siamo.
@henriolamachannel10 ай бұрын
La consapevolezza di sé e la comprensione profonda restano per ora (e solo per ora) esclusive della mente umana, evidenziando così il divario tra le capacità umane e quelle dell'IA. Ma questo "mostro" ci sta studiando...Ormai sa emulare il nostro modo di pensare attraverso la modellazione cognitiva, l'elaborazione del linguaggio naturale e la risoluzione creativa dei problemi...
@luce853311 ай бұрын
😂💙 come Mercadini consiglia la sua musica preferita:
@BreraP10 ай бұрын
a me GPT4 ha risposto così "Tito Balestra è stato un poeta e critico d'arte italiano, nato a Longiano (Forlì) il 25 novembre 1923 e scomparso il 12 settembre 1976. La sua opera è caratterizzata da un'intensa lirica personale, in cui emergono temi come l'amore, il tempo, la morte e la riflessione sull'esistenza. Balestra ha contribuito significativamente al panorama culturale italiano non solo con le sue poesie, ma anche attraverso la critica d'arte, collaborando con importanti riviste e curando mostre. Oltre alla poesia, si è distinto per le sue riflessioni e critiche nel campo dell'arte contemporanea, avendo stretto amicizie con molti artisti del suo tempo. La sua figura è rimasta impressa nella memoria culturale italiana per la profondità dei suoi testi e per il suo impegno nel diffondere l'arte e la poesia. La Fondazione Tito Balestra, situata nel castello Malatestiano di Longiano, è dedicata alla sua memoria e ospita una significativa raccolta di opere d'arte moderne e contemporanee, testimonianza dell'interesse di Balestra per le arti visive e del suo legame con numerosi artisti. La fondazione si impegna nella promozione culturale attraverso mostre, eventi e pubblicazioni che riflettono lo spirito e gli interessi del poeta."
@BreraP10 ай бұрын
le reti neurali, il deep learning eccetera non potranno MAI fare valutazioni emotive sulle cose, ma ricordati che la statistica è la generazione di un trend sulla base di parametri e variabili che la producono nel tempo. E a prescindere dal fatto che le nostre azioni e scelte siano anche basate su valutazioni emotive, magiche, spirituali, il risultato è sempre e comunque una statistica. Bel video comunque :) E' giusto mettere sempre tutto in discussione e valutare ed approcciare ogni cosa con pensiero critico.
@henriolamachannel10 ай бұрын
@@BreraP Vero, però non si può fare un discorso critico attendibile su Chatgpt senza testare la versione pro
@BreraP10 ай бұрын
eh sì direi @@henriolamachannel
@chiccirici10 ай бұрын
La poesia finale in dialetto uno spettacolo!!!!!!!!
@gabrieleborgogno727911 ай бұрын
Ciò che facciamo è comparare due oggetti trovando differenze e somiglianze, poi creiamo delle categorie sulla base di queste associazioni e le chiamiamo "generalizzazioni". Vediamo una mela verde, una gialla e una rossa. Poiché l'aspetto differisce solo nel colore, mentre la forma è approssimativamente la stessa e anche il gusto e la consistenza sono abbastanza simili, allora presumiamo che, se a un individuo piace la mela rossa, gradirà anche le altre due. Allo stesso modo, se analizzo la musica di J.Coltrane e di M.Davis trascrivendo sullo spartito tutto ciò che accade, troverò delle strutture molto simili. Il basso farà il walking; il fraseggio seguirà un andamento leggermente sincopato tipico del linguaggio jazzistico; il pianoforte suonerà sempre più o meno nello stesso modo e suonerà sempre più o meno le stesse progressioni armoniche; il fraseggio nei soli seguirà sempre più o meno schemi e pattern simili. Posso insegnare a discriminare il jazz dal non-jazz anche a un sordo dalla nascita, semplicemente istruendo il soggetto a discriminare alcuni schemi ricorrenti di questa musica (la circolarità del tema, il walking eseguito dal basso, gli accordi utilizzati, le soluzioni melodiche attuate dai soli, ecc). Lui non saprà mai cosa si prova ad ascoltare musica e quei simboli grafici saranno semplicemente fini a se stessi. Però, vedendo lo spartito, potrà capire che la musica di J.Coltrane e quella di M.Davis si somigliano. Potrà anche, se opportunamente istruito, comporre della musica jazz piacevole da ascoltare per coloro che invece possono sentire i suoni. Il fatto che si dia per scontato che un compositore debba aver sentito la musica almeno una volta nella propria vita per poterla scrivere è in realtà un presupposto falso. Un sordo può scrivere musica, solo che in genere non ha alcun interesse nel farlo. Allo stesso modo il fatto che fino ad ora a una azione intelligente sia associata la coscienza (qualsiasi cosa voglia dire questo termine), non significa che non possa esserci una azione intelligente da parte di un oggetto che non possieda questa caratteristica.
@emmamaestrelli263510 ай бұрын
mancava solo che citassi queste tre band. mancava giusto questo per dichiararti definitivamente mio personalissimo eroe
@leviackermann2111 ай бұрын
video stupendo Roberto, proprio in questi giorni stavo pensando a quando - molto probabilmente - in futuro le diagnosi mediche saranno fatte quasi esclusivamente dall'AI, questo video calza proprio a pennello. Buone parole anche a te
@Gabric_12311 ай бұрын
la medicina è pura meccanica? I'IA potrà, secondo me, essere solo da supporto per un medico, come una calcolatrice per un ingegnere.
@gaetanodocful11 ай бұрын
Per me il problema non si pone, tu sei tutta l'intelligenza di cui ho bisogno!✌️
@robertoalbesiano11 ай бұрын
ChatGPT mi fa continuamente venire in mente l'uomo che scambiò sua moglie per un cappello: mi sembra che funzioni nella stessa maniera in cui, nel caso raccontato da Sacks, funziona la vista del paziente, che non riesce a riconoscere più le immagini ed è ridotto a inventare e indovinare basandosi solo su una statistica dei dettagli minuti che riesce a identificare
@saratetano10 ай бұрын
Che bellissima favola della buonanotte.😌 Grazie, Roberto, che scegli le tue parole, per noi.❤
@AntonioBonifacio11 ай бұрын
A me ha aperto la mente il discorso di Luca Perri su questa questione in una sua recente conferenza sull'AI a cui ho partecipato un paio di settimane fa: ChatGPT è fatto per superare il test di Turing, quindi deve dare l'impressione che a "parlare" dall'altra parte del monitor ci sia un umano, senza poterlo distinguere da una macchina. A ChatGPT non frega nulla se dice cose vere o false, purché sembri che a dirle sia un umano.
@RobertoMercadini11 ай бұрын
Sì, concordo che il concetto sia quello. È progettato per comunicare verbalmente in modo perfetto.
@artiko88811 ай бұрын
Ma non è tanto ChatGPT che sembra umano, quanto alcuni umani che parlano come ChatGPT 😂😂😂
@lucafabbian26911 ай бұрын
Ma in realtà non è proprio così. L'AI di ChatGPT in sé non è progettata per superare Turing: elementi come la fantasia e la precisione sono parametri che si possono regolare, se usi l'API sviluppatori. Voi parlate dei parametri di base che ci sono nell'interfaccia grafica per utenti normali. Quelli sì, sono ottimizzati per dare l'impressione di parlare con una persona a discapito dell'attendibilità. @@RobertoMercadini , quando nel video dici che non si può chiedere a ChatGPT di smettere di "inventare", in realtà è un po' inesatto, perché si può regolare, nei limiti di quanto concesso da microsoft. In modelli simili tipo MixTral si può fare molto di più. Attualmente, queste AI non hanno ancora il modo di autoregolarsi i parametri, ma si fanno già esperimenti in tal senso.
@vinx00211 ай бұрын
grazie mille per questo video. Ti stimo tantissimo❤
@leonardozampetti995811 ай бұрын
Per quanto riguarda il punto del video sulla diversità fondamentale tra il modo di sapere umano e delle AI trovo che sia condivisibile e interessante, tuttavia vorrei portare qualche obiezione più intese come spunto che come critica. 1) il fatto che chatgpt sbagli nel riportare delle informazioni non implica necessariamente che non possa arrivare a capirle, anzi il meccanismo del deep learning si basa proprio sul trial and error, esattamente come l' apprendimento umano(anche noi esseri umani commettiamo errori prima di aver internalizzato un concetto). 2) ovviamente questo apprendimento per trial and error è sostanzialmente differente tra chatgpt e un essere umano, come dice lei non sembra esserci reale "comprensione" da parte dell' intelligenza artificiale bensì solo un complesso sistema di considerazioni statistiche che gli permettono di rispondere correttamente a molti quesiti. Tuttavia il punto che vorrei portare è che non è assolutamente detto che il cervello umano non lavori con lo stesso principio (le reti neurali artificiali sono basate proprio sul comportamento dei neuroni biologici) però con una complessità infinitamente superiore data dal numero astronomico di collegamenti sinaptici nel cervello che rendono questi processi di carattere statistico talmente smussati da essere impercettibili. Ovviamente non è detto che invece nella mente umana non ci sia qualcosa di intrinsecamente diverso che ci permetta di comprendere mediante un diverso meccanismo (ma a qual punto si pone il problema di capire cosa sia). 3) come ultimo punto vorrei portare una considerazione di carattere più pratico. L IA è ancora ai primi passi e di qui in poi non potrà che migliorare (chissà tra 100 anni cosa sarà in grado di fare). Se dovesse raggiungere un livello tale da rendere le conclusioni raggiunte con soppesi statistici totalmente indistinguibili da altre conclusioni tratte da esseri umani che abbiano realmente compreso l' argomento non sarebbe in fondo inutile distinguere le due cose? Nel momento in cui non è più possibile notarne una differenza nelle risposte il processo che sottende tali risposte non diventa più una considerazione di carattere filosofico che non ha reale riscontro concreto? Spero di non averla annoiata con un messaggio così lungo e anzi mi farebbe piacere sapere cosa ne pensa se decidesse di rispondermi.
@Matt-wh6wj11 ай бұрын
Son d'accordo.
@francescodarin810011 ай бұрын
Prima questione: Per chaGPT sono giuste. Sbagliato è quello che l'uomo riscontra sia sbagliato. E' l'uomo che la verifica. Se la risposta ti soddisfa lei la correggerebbe da sola? Seconda questione: Il modello matematico di una cosa non è la cosa. Neuroni veri e modelli del neurone. C'è a riguardo una serie di ragionamenti di Einstein. Nessuno sa come funzioni un neurone.
@filipposchiabel11 ай бұрын
@francescodarin8100 potrei sbagliarmi, ma trovo che applicare principi morali ad un software sia fuorviante: chatGPT produce risposte coerenti con i processi generativi soggiacenti, i quali non sono volti alla verità, bensì all'imitazione dell'uomo. Quindi in un certo senso le risposte sono sempre "giuste", ma senza alcun valore di verità. Semplicemente sono "plausibili". Per la questione dei neuroni, purtroppo non ho familiarità coi discorsi di Einstein in merito (magari approfondirò), ma intuisco che essa possa essere ridotta al problema della deduzione (e della verità) - per cui non esiste soluzione. Tuttavia vorrei far notare, in continuità col primo commento, che la soluzione è puramente di carattere metafisico ed è anzi priva di risvolti concreti
@francescodarin810011 ай бұрын
@@filipposchiabel tu li chiami principi morali mentre invece si tratta dell'affidabilità dell'informazione che è un problema di sorgente. Sarai condannato a verificarla costantemente. Un uomo che mente sempre è un paradosso della logica perchè sai appunto che mente sempre - il paradosso del mentitore è (forse) l'inizio della teoria dei giochi. Invece qui vai a singhiozzo. Rischi di chiedere e credere all'oracolo. Non che per questo sia cattiva ma non è affidabile. La questione di Einstein riguarda il problema dello scarto tra la realtà e i modelli matematici. Uno "si comporta" l'altro insegue approssimando. Dove stia l'imitazione dell'uomo, se non nella possibilità dell'errore, lo sai solo tu. Per fare errori mi basto.
@leonardozampetti995811 ай бұрын
@@francescodarin8100 ok qui siamo scesi un po' nella filosofia. Restando in termini più pragmatici quello che ti direi è questo: Neanche un essere umano si autocorregge da solo, ha bisogno che qualcuno gli dica che sbaglia o avere un riscontro del suo errore. Allo stesso modo un AI non sa di sbagliare finché non glie lo si dice e non si accorge di una contraddizione all' interno del suo ragionamento (che chat gpt non è ancora abbastanza sofisticata da fare con costanza). Per quanto riguarda i modelli che sono distinti dalla realtà ciò è verissimo, infatti nessuno ha detto che sicuramente il meccanismo di apprendimento di chatgpt è lo stesso di un essere umano dato che si basa su un modello di neurone. Quello che si dice è che se il modello è abbastanza preciso potrebbe davvero imitare il comportamento dei neuroni su piccola scala.
@Panebiancomaurizio10 ай бұрын
Per fortuna!! Pensavo che mi portasse via il lavoro Grazie mi hai rinquorato
@Filli9911 ай бұрын
Riguardo al sistema di consigli di Spotify c'è da dire che in un certo senso "ascolta" anche la musica, perché oltre a tenere conto degli artisti o dei brani ascoltati da altri utenti compara direttamente le tracce audio, le frequenze e i dati delle canzoni per trovare similarità, attribuire generi eccetera.
@Sara-lk2yr11 ай бұрын
Potrebbe "ascoltare" meglio di noi individuando con precisione caratteristiche che esperti in materia non colgono... Però in verità continua a non ascoltare. L'ascolto umano è un processo molto complesso che coinvolge il corpo, la cultura, la storia personale, la condizione psicologica... Ecco. Dovremmo distinguere tra analisi dei parametri ed ascolto umano.
@GabbriX11 ай бұрын
Da un po' non guardavo i tuoi video. Ma da oggi, dopo aver visto questo, sento che devo ricominciare!
@LVenn11 ай бұрын
Ciao Roberto, hai mai sentito parlare di rappresentazione vettoriale? Spotify, come anche altri strumenti, non solo compara gli ascolti di diversi utenti, ma ha un algoritmo che ad ogni canzone appaia un vettore, e poi può misurare la distanza tra questi vettori per comprendere quanto sono simili le canzoni corrispondenti. Quali caratteristiche l'algoritmo usi per codificare le canzoni in vettori è un mistero, ma potrebbe essere benissimo vero che usi anche features che somigliano alla nostra concezione di "magico" o "ancestrale"
@artiko88811 ай бұрын
Ma lui le usa perché qualcuno gli ha imposto di usarle per programmazione. Non sa perché e non sa di usarle.
@LVenn10 ай бұрын
@@artiko888 non direi proprio, sono tutte features apprese automaticamente e senza nessuna programmazione specifica. È un ammasso di matrici che computa cose e riesce a classificare musica usando caratteristiche a noi comprensibili, non mi sembra niente di più strano rispetto ad un ammasso di neuroni e sinapsi che riesce a classificare musica in base a caratteristiche che risultano comprensibili ad altri ammassi di neuroni e sinapsi
@stefano93deus10 ай бұрын
Probabilmente compie un'analisi in frequenza della musica, riuscendo quindi ad ottenere uno spettro delle frequenze che poi compara con altri brani stabilendone in fine la similitudine. Una musica rock ad esempio, avrà alcune componenti in frequenza che possono essere usate per la comparazione, così come una musica "ancestrale" avrà i suoi toni caratterizzati dagli strumenti con cui viene espressa. Lo spettro ottenuto potrebbe essere utilizzato come etichetta di comparazione. Spettri simili equivarrebbero a musiche simili. Secondo me non è molto diverso da ciò che fa il cervello quando tenta di stabilire la somiglianza di due musiche.
@stellaceleste369711 ай бұрын
Grazie. Siamo messi bene con quel l. A...... Ho fatto da un po un ragionamento come te, ma mentalmente......molto bene descritto.
@alessandrotto643711 ай бұрын
I pennelli non sanno niente Le ruote non sanno niente Illustrator non sa niente
@MackShunta11 ай бұрын
Tu non sai cos'è l'AI vero? Perché il tuo paragone ha è molto sbagliato, ChatGPT non dovrebbe inventare, il motivo per cui accade è molto complesso, ma è come se, usando uno dei tuoi paragoni, Illustrator restituisse due risultati differenti applicando alla stessa forma lo stesso comando non randomico
@alessandrotto643711 ай бұрын
@@MackShunta è uno strumento che uno può usare per fare cose
@artiko88811 ай бұрын
@@MackShuntainvece la sua ANALOGIA ha perfettamente senso. Se tu lo vedi come un PARAGONE. Sei tu che confondi un paragone con un'analogia.
@Gabric_12311 ай бұрын
gli organismi sanno, i meccanismi non sanno.
@davidebraina955910 ай бұрын
Ciao Roberto, sul tema della rappresentazione imprecisa della realtà, il video mi ha fatto venire in mente le prime rappresentazioni grafiche del rinoceronte. Grazie per tutto quello che fai.
@michelangelo_B11 ай бұрын
chatGPT conosci Roberto Mercadini? Certo, Roberto Mercadini, Trento 1922 - Città del Capo 1997 é stato un famoso chef italiano, specialista in prodotti tipici della zona alpina in cui é nato.
@RobertoMercadini11 ай бұрын
🤣🤣🤣
@francescodarin810011 ай бұрын
@@RobertoMercadiniSii contento. Qualcuno a saputo di essere già morto.
@dav77h11 ай бұрын
Ma perchè usate modelli vecchi del 2022? Che boomers! 😂 Sono problematiche stra note, ci hanno fatto ore di video a riguardo da almeno un anno (cerca Matteo Flora). Praticamente ogni modello uscito nel 2023 risolve sti problemi.
@RobertoMercadini11 ай бұрын
@@dav77h Dubito fortemente che le nuove versioni abbiano risolto la questione di cui parlo nel video. 🤣🤣🤣 Hai capito cosa dico? Il concetto di "sapere" non ha senso riferito all'intelligenza artificiale.
@dav77h11 ай бұрын
@@RobertoMercadinied io dubito fortemente che tu abbia mai provato qualche modello che non sia chatgpt versione gratuita del 2022. I nuovi modelli (oltre ad avere molte più informazioni di base) compiono actions e cercano su internet quello che non sanno, come faresti anche tu. Non prendono più il rischio di sparare a caso. Non serve più. Chatgpt che usi tu del 2022 era semplicemente ottimizzata per rispondere sempre scrivendo bene, anche inventando cose. Era stata concepita come una scatola chiusa, non doveva dimostrare di sapere cose, per quello c'era wikipedia. Doveva solo dimostrare di poter confondere gli umani sapendo scrivere bene, e lo ha fatto. Era uno stunt. Nel 2023 infatti ci sono state grandi discussioni a riguardo e sono usciti Bard, Grok, GPT4 per esempio. E nel 2024 ritornano i boomers a dire ancora che l'intelligenza artificiale (chatgpt versione gratuita del 2022) inventa cose! Non sa com'è una giraffa perchè non l'ha vista! Seriamente, hai mai provato Grok, chatgpt4, bard, copilot? Hai mai provato un modello recente che sa com'è fatta una giraffa perchè semplicemente l'ha vista?
@veronesifrancesco10 ай бұрын
Il fatto che ci si chieda "se fosse umano" ci si lamenta che "inventa" è qualcosa di incredibile! Non lo faremmo mai per un microonde. Guardiamo ciò che queste tecnologie fanno non quello che non fanno altrimenti il rischio è quello di non capire. Guardiamo e guardiamoci.
@RobertoMercadini10 ай бұрын
Ma no! È una riflessione filosofica sul concetto di "sapere"! 🙂 Non ha senso dire "guardiamo quello che queste tecnologie fanno". 😊
@giuseppecosco722610 ай бұрын
Si chiama effetto "allucinatorio" ed è dovuto al fatto che il calcolo probabilistico sbaglia a scegliere il token corretto. Il motivo per cui sbaglia è che gli LLM cioè i Large Language Model lavorano a "strascico". Questo problema viene risolto dalla tecnica del RAG che permette di addestrare il modello su fonti supervisionate. Quando cioè avviene la risposta è esatta al 100%. Smettetela di combattere contro i mulini a vento. Il futuro è l'AI, la robotica, ecc...Invece di aver paura dell'AI dovreste studiarla per capire come sfruttarla.
@giuseppeferrantelli56069 ай бұрын
non hai capito niente di quello che roberto ha detto nel video.
@emanueleleo43507 ай бұрын
Hai ragione, i dinosauri attaccano sempre il progresso
@RobertoMercadini7 ай бұрын
Non hai capito. Il fatto che la risposta sia esatta o sbagliata non fa nessuna differenza. Il video è una riflessione sul concetto di "sapere". È un video che parla di filosofia, non di tecnologia.
@Melina09510 ай бұрын
Sempre preziosi i tuoi ragionamenti, è un piacere ascoltarti
@bobbysolo333510 ай бұрын
Prova a chiedere se conosce il "sarchiapone".... Poi, mi chiedo, perchè usare questa AI per fare ricerche che google può fare tranquillamente e probabilmente anche meglio, bisognerebbe usarla per cose più tecniche, come lo sviluppo di codici, oppure, visto che a questo punto della storia, forse, abbiamo ancora la possibilità di staccargli la spina, facciamolo, prima che sia troppo tardi.....
@framichetti10 ай бұрын
Grandissimo roberto, grazie per quello che fai
@SergioBracali11 ай бұрын
In realtà, un computer può anche analizzare la struttura della musica e stabilire somiglianze oggettive, anche se non nello stesso modo in cui lo fa un essere umano. Ciò non vuol dire che sia consapevole, ovviamente, ma non è detto che i consigli si debbano basare solo sulla frequenza di utilizzo degli artisti da parte degli stessi ascoltatori.
@giovannipicone695510 ай бұрын
Buone parole anche a te Roberto, grazie del tuo operato
@Francesco.Panetti11 ай бұрын
signor mercadini lei è senza dubbio il mio ebreo preferito
@lpanzieri11 ай бұрын
Mercadini non è ebreo.
@Audiofollia10 ай бұрын
Segnalo la reaction di Raffaele Gaito a questo video che analizza molto bene la questione, con saggezza e competenza. Dire “Intelligenza artificiale” per identificare “chat gpt” è molto molto riduttivo, ci sono centinaia di intelligenze artificiali con infinite variabili e altrettanti usi diversi. Bisogna conoscere a fondo risorse e limiti di una tecnologia per un corretto e proficuo utilizzo.
@RobertoMercadini10 ай бұрын
Sì, ma la questione che pongo io è filosofica. Tecnologie come ChatGPT ci costringono a ripensare l'uso che facciamo delle parole. Ha senso applicare il concetto di "sapere" all'intelligenza artificiale? Ne sto discutendo in privato con un filosofo che ha anche una laurea in ingegneria ed è specializzato nel campo dell'intelligenza artificiale. Si chiama Riccardo Manzotti. Lui sostiene che ChatGPT abbia una qualche forma di sapere; ma lo fa a partire da una concezione molto originale della mente, che tecnicamente si chiama esternalismo radicale. Ma l'uso corretto di una certa tecnologia non c'entra nulla con il mio discorso. Io ho fatto un uso "anomalo" proprio per mettere in luce la questione filosofica.
@Audiofollia10 ай бұрын
@@RobertoMercadini sicuramente è un dibattito interessante. Il “sapere” al momento non c’entra nulla, li considero solo degli strumenti tanto straordinari, quanto embrionali. Quando ci sarà (forse), una sorta di “autocoscienza” artificiale, allora probabilmente sarà tutta un’altra storia…
@DB-tz4sm11 ай бұрын
Due cose devo scrivere: 1 troppo bello i tuoi video sull’ia 2 se l’intelligenza artificiale fosse davvero “intelligente” potrebbe anche decidere di non lavorare per te
@alessandrodistefano7311 ай бұрын
sei tu che lavori per l’AI e la aiuti a migliorare e ampliare le sue conoscenze
@DB-tz4sm11 ай бұрын
@@alessandrodistefano73 le conoscenze non sono l’intelligenza, sono proprio due cose diverse
@luigimarino42019 ай бұрын
Grazie Roberto!Concordo !Siamo soggetti AI un oggetto
@AngeloPantano11 ай бұрын
"Non lo saprà nessuno che abbiamo vissuto", neanche ChatGPT
@tommyfrance296811 ай бұрын
Ottimo spunto di riflessione grazie.
@mnbvcxm11 ай бұрын
È facile deridere Chat GPT, ma teniamo presente che siamo agli albori dell' intelligenza artificiale. Fra qualche anno avrà fatto passi enormi, e forse fra altri anni le IA acquisiranno anche una coscienza e la possibilità di fare esperienze. A quel punto potranno caricare più esperienza di qualsiasi essere umano.
@artiko88811 ай бұрын
Per ora la coscienza non la può acquisire. Perché la sua programmazione è fatta su quel che i programmatori hanno capito e potuto riprodurre, non sapendo ancora nemmeno a livello neurologico cosa sia la coscienza ancora non possiamo riprodurla. Parlare di CGPT come un essere è il primo errore di confusione che fa la gente che non ha capito che strumento sia. Non confondere le cose, la parte importante della parola IA per ora è ARTIFICIALE. Non è intelligenza ma un artificio, qualcosa che emula, un trucco. L'artificio dell'intelligenza. A meno che un programmatore non riproduca per culo una serie di algoritmi che generano una coscienza senza sapere come funzioni, ma mi par difficile eh😂. Abbiamo visto troppi film. L'IA non è quella della fantascienza e si evolverà in base a canoni reali e non scifi.
@NikKappa10 ай бұрын
Una delle prime volte che non concordo con la sua visione delle cose, ma ci sta, sono argomenti davvero particolari che sfociano nel concetto stesso di coscienza. A tal proposito le consiglio assolutamente la lettura di Gödel, Escher, Bach di Douglass Hofstadter, uno dei pezzi più grossi nel campo dell'informazione. È un libro bello tosto, ma senza esagerare mi ha cambiato la vita (grazie a certi insight), spero che un giorno ne farà un video.
@ChristianBianchi9111 ай бұрын
Chiedendo la stessa cosa a chat gpt 4: Tito Balestra è nato a Longiano, un comune nella provincia di Forlì-Cesena, in Emilia-Romagna, Italia. Longiano è noto per il suo ricco patrimonio storico e culturale, ed è in questa suggestiva cornice che Balestra crebbe e trovò ispirazione per molti dei suoi lavori.
@mikestunt7711 ай бұрын
Lui usa chat gpt3 la versione free, se già usasse chat gpt di bing avrebbe risposte migliori visto che ha l'accesso al web
@paolocalvaresi708011 ай бұрын
Infatti ho provato con copilot ho avuto la tua stessa identica risposta
@_mu.11 ай бұрын
Chiesto a Bard e avuto tutte info corrette. ...
@Bartostoria5 ай бұрын
Argomento molto interessante! Ne prenderò sicuramente spunto per i miei video
@mariofaccenda-r9j11 ай бұрын
IMPORTANTE: chatgpt è un intelligenza programmata per rispondere come farebbe un umano. il punto centrale è il linguaggio, la capacità di comprendere la domanda ed elaborare la risposta. è solo per questo che è stata progettata. che poi avendo praticamente tutto internet nell addestramento come effetto secondario da anche risposte esatte, ma non sempre, e quando non lo fa non dovrebbe stupire nessuno
@Atyd711 ай бұрын
il punto non è dare la risposta sbagliata se provi a fare domande di logica a chat gpt non sa rispondere perchè al momento non ha niente di intelligente, è solo un enorme enciclopedia
@impred416211 ай бұрын
Esattamente, la cosa che molte persone non colgono è che la tecnologia degli LLM non è basata sulla capacità di poter rispondere a delle domande come un'entità onnisciente, ma di poter rispondere a delle domande in linguaggio naturale
@RobertoMercadini11 ай бұрын
Sì, questo mi è chiaro. Quello che ChatGPT fa è imitare perfettamente il linguaggio umano. Dare risposte corrette, semplicemente, non è ciò per cui è stato creato. Il video voleva essere una riflessione sul concetto di "sapere". ChatGPT è un esempio abbastanza chiaro della differenza fra dire qualcosa di vero e sapere. ChatGPT non "sa" mai nulla, anche quanto fornisce risposte assolutamente corrette.
@claudioproietti92338 күн бұрын
Roberto sei magico 🎉💖🤗
@Gabric_12311 ай бұрын
chatgpt ha una competenza (elaborazione simbolica) senza comprensione. Un uso senza comprensione... è una macchina che elabora senza una finalità interna (è un meccanismo input-output), invece ogni singola cellula vivente (che compone un organismo) ha al suo interno una causa finale (entelechia). Ogni singola cellula contiene l'informazione (dna) sul telos (il fine). Nel caos esteriore del quotidiano, abbiamo in ognuno di noi un nostro Kosmos (ordine).
@MarcoAmadori11 ай бұрын
Perché una cellula dovrebbe essere speciale, solo perché banalmente è un nostro mattoncino e non riusciamo a non soffrire di antropocentrismo?
@Gabric_12310 ай бұрын
@@MarcoAmadori una cellula non è ne banale ne speciale, è semplicemente diversa da un meccanismo. Un meccanismo ha stati necessariamente determinati (non decide), un organismo compie atti intenzionali non necessari...
@TheExceptionalState10 ай бұрын
Dear Roberto. It is good that you are broadcasting this insight to your large audience. People have little idea of the extent to which they are being sold fictions which they take to be truths. This became obvious to me already in March 2023 because of my deep knowledge of a specific area of interest (Rudolf Steiner). I had tried to use this tool to ask questions and 9 times out of 10 (approx) it invented what has come to be called "a hallucination".
@taco_185911 ай бұрын
Secondo me, Chat GPT non è l'ideale per le domande di cultura generale, perché, se non sbaglio, non ha accesso a un motore di ricerca come l'intelligenza artificiale di Bing, che è molto più preciso in tal senso. Infatti, Chat GPT sembra inventarsi le risposte e cambia le informazioni ogni volta che gliele chiedi. Però, è super utile quando devi fare mansioni pratiche, come calcoli matematici o correggere errori sintattici e grammaticali nei testi e quant'altro.
@alessandrodeluca577011 ай бұрын
Per esperienza ti posso dire che, almeno per ciò che ho potuto vedere io, chat gpt non è per nulla bravo con problemi di matematica e fisica e programmazione (lo ho sottoposto ad esercizi che dovevo fare per ingegneria e non ne ha azzeccata mezza, bing invece ci si avvicina maggiormente). Non è abile nemmeno nel cercare informazioni su internet, che siano esse di carattere scientifico o umanistico. Anche in questo caso Bing se la cava meglio. Ciò chat gpt è in grado di fare meglio è inventare e scrivere, è un ottimo aiuto per la composizione e correzione di testi (sia Articoli che storie) ed è inoltre un incredibile traduttore, l'unico che uso ormai. Spero di aver scritto in maniera comprensibile
@taco_185911 ай бұрын
@@alessandrodeluca5770 grazie per aver condiviso la tua esperienza. Molto utile. Io Chat GPT lo uso spesso per correggere la sintassi delle mie email, e mi è sempre sembrato bravo.
@giuseppenicoletti91211 ай бұрын
Hai raccontato esattamente quello che penso facendolo ovviamente mille volte meglio di come l'avrei potuto fare io! Mercadini davvero un intelligenza straordinaria.
@skynet710 ай бұрын
Come avevo già scritto, anche questo video invecchierà malissimo. Intanto prova ad usare gpt 4, le allucinazioni diminuiscono drasticamente e comunque non è questo il modo di usare questi strumenti
@RobertoMercadini10 ай бұрын
Il video pone una questione filosofica. L'intelligenza artificiale mette in crisi i concetti che usiamo abitualmente. Ha senso usare il concetto di sapere in riferimento ad una intelligenza artificiale? Dopo questo video sto portando avanti una discussione con Riccardo Manzotti, che è un filosofo e un esperto di intelligenza artificiale. Manzotti sostiene che la parola "sapere" abbia due diversi significati. Uno è del tutto estraneo all'intelligenza artificiale, l'altro gli è perfettamente proprio.
@VittorioZamparella10 ай бұрын
@@RobertoMercadini Secondo o me ti stai attorcigliando nelle parole: se è intelligenza (artificiale o naturale non importa) allora è in grado di sapere. Perchè anche se non abbiamo una buona definizione di intelligenza siamo ben d'accordo che un'intelligeza sa. Quelle che chattano, dipingono e camminano non sono intelligenze, altrimenti anche il fiume e la foresta e i pianeti sarebbero intelligenze.
@albatramonto10269 ай бұрын
Prova anche gemini che dovrebbe essere più aggiornato sul web... Poi sbaglia....anche lui ha ha (lui lei)😂
@degabriele10 ай бұрын
Ciao, è confortante vedere che il motivo dello stupore e del titolo acchiappa click sia dovuto a comportamenti noti e sicuramente residuali nelle iterazioni che veranno nel tempo. Ogni strumento ha i propri limiti, saperlo usare a maniera è ancora ambito umano. Per i dati anagrafici, se quella è cultura, c'è sempre wikipedia. Per il resto, uso professionalmente LLM in ambito di programmazione e aiutano molto quando si conosce l'argomento e serve un spunto o semplicemente un aiuto rapido. A volte mi guida nel concretizzare cosa realmente sto cercando. Un saluto
@RobertoMercadini10 ай бұрын
Sì, ma il senso del video è un interrogativo filosofico. Cosa significa davvero sapere? Ha senso applicare questo concetto all'intelligenza artificiale? Ne sto discutendo in privato con un filosofo che è anche un ingegnere e si occupa con competenza dell'intelligenza artificiale. Si chiama Riccardo Manzotti.
@degabriele10 ай бұрын
@@RobertoMercadini grazie per la risposta, speriamo sia condiviso il frutto del vostro confronto. Lo spunto che vorrei mestamente passarvi è il seguente - se al posto che chiedersi cosa significa sapere usando l'intelligenza artificiale (che sarà per definizione al di sotto delle aspettitive fino a quando non sarà infinitamente meglio), proviamo a porci la stessa domanda usando gli umani. Se interroghi persone con disabilità cognitive che risposte ottieni? Sanno? Se interroghi il tuo amico fregnacciaro che piuttosto che fare scena muta si inventa di aver scoperto l'America, lui sa? Coscienza, sapienza...Sono concetti emergenti e sfuamati, con un gradiente. L'intelligenza artifiale è solo la versione in evoluzione e senza corpo di questi fenomeni.
@albertor.87123 ай бұрын
Il punto è che i mass media, i commentatori e i promoter di questi strumenti li vendono per ciò che non sono. Non vi è nulla di intelligente e nulla di miracoloso. A oggi per riprodurre le capacità del cervello di un moscerino della frutta serve una stanza intera piena di microprocessori e kW di energia elettrica. In conclusione siamo di fronte alla bufala del secolo dopo la bolla di internet.
@filippo640111 ай бұрын
Ciao Roberto posso portarti la mia esperienza da studente universitsrio. Ho dovuto dare un esame di chimica e uno di informatica e alle superiori non ho fatto nessuna delle due materie. Le slides di entrembi i corsi erano scarse e non permettevano di capire a fondo la teoria e lo svolgimento degli esercizi. Mi sono affidato a chatgpt su diversi esercizi e su informatica è stato spettacolare. Ti crea il codice e se non capisci una parte gliela chiedi e te la spiega. Uguale chimica. Ovviamente non sa fare calcoli ma è un ottimo strumento per capire i processi. È una tecnologia ai primi stadi (quella chd possiamo usare noi masse) ma non mi stupirei se nel giro di poco tempo sara in grado di fare cose ad oggi infattibili
@RobertoMercadini11 ай бұрын
Interessante! Io lo uso spesso per studiare la chimica, ma ricontrollo sempre perché spesso dà risposte che non sono attendibili. Tu usi la versione gratuita del sito ChatGPT? Oppure la versione integrata in Bing? O altro?
@filippo640111 ай бұрын
Ho utilizzato entrambe ma mi sono trovato meglio con chatgpt (la versione gratuita). Certe volte bisogna incalzarlo un po e per farsi dire quello che si vuole, a volte, bisogna "ragionare" insieme a lui. Può sembrare assurdo detto così però rispondendo mettendo in dubbio le sue risposte può portare esiti positivi. Ovviamente non è onnisciente (come hai visto anche tu) ma per il livello di chimica che mi serviva è stato molto utile. Spero possa essere utile anche a te anche e possa rispondere a quesiti più difficili dei miei!!!
@RobertoMercadini11 ай бұрын
@@filippo6401 Utilissimo. Grazie! 🙂
@M3LAD18 күн бұрын
Bel video, hai colto in pieno l'essenza e il funzionamento di Chat GPT; un generatore di testo probabilistico. Di solito cerca dalle fonti più attendibili, ma non sa cosa sta scrivendo, sta generando.. E scazza :D Dicono che la prossima versione "penserà" un po prima di generare una risposta. Pensare forse non è la parola corretta, come non lo è intelligenza ma come hai detto tu diventa difficile ad un certo punto non usare queste parole per fare paragoni. Il "suo sapere" è un database. I "suoi pensieri" calcoli logici, probabilistici. La "sua etica" impostata dagli sviluppatori tramite addestramenti. Ma niente di vivo o cosciente. È affascinante e spaventoso allo stesso tempo, un Mimic. :D
@titocanetoro11 ай бұрын
Conosco molte persone che, pur non sapendo assolutamente di cosa stanno parlando, elargiscono “verità” a destra e a manca. Altro che ChatGPT! 🤣🤣🤣🤣🤣🤣
@ambershej11 ай бұрын
😂😂
@SkinnyBoy90510 ай бұрын
Ho guardato il video con molto interesse, innanzitutto complimenti per il lavoro e per il non fermarti mai di pensare e confrontare le cose, ma mi permetto di evidenziare alcune cose che secondo me sono da prendere in considerazione, quando parliamo di chatgpt parliamo di una macchina, si, ma anche di una rivoluzione di calcolo e generazione, detto questo, la differenza tra noi e chatgpt non è tanta, poiché anche noi fin dal funzionamento dei sensi calcoliamo e generiamo e pertanto sbagliamo. Quando parliamo di esperienza la cosa diventa ancora più interessante, poiché anche chatgpt si muove sull'esperienza, attualmente solo di lettura ma molto probabilmente in futuro anche visiva, quindi in conclusione posso afferma che ci troviamo davanti a un calcolatore in grado di poter fare le stesse considerazioni ed esperienze molto vicine alle nostre😊
@atuttogas200211 ай бұрын
E se ci sopravvalutassimo? Se la nostra "intelligenza " nel 99% dei casi è solo combinare parole concetti già sentiti? A volte viene paragonata ad uno studente che inventa quando non sa. Magari deve ancora imparare un po'. Comunque esperienza personale nello scrivere " previdibilissime" mail di lavoro tipo "scrivimi mail per ricordare a tutti i capi reparto di compilare correttamente in ogni parte il report di produzione giornaliera" è bravissima
@francescodarin810011 ай бұрын
Era la tesi di Turing: siamo macchine manipolatrici di simboli. Non regge.
@atuttogas200211 ай бұрын
Visto che la definizione stessa di intelligenza è al più vaga e soprattutto riferita a quello che consideriamo intelligente cioè noi. Mi piace dare una risposta vaga ma efficace alla difficile domanda. Quando la IA sarà veramente intelligente? Semplice quanto sarà diventato troppo difficile vedere la differenza.
@@zenopatruno trovi molto e ovunque da cui il test di Turing.
@__ocram__11 ай бұрын
il problema si condensa a determinismo vs non determinismo. Un sistema deterministico (o descrivibile con sufficiente accuratezza in modo deterministico), per quanto complicato possa essere, basta aggiungere qualche miliardo di punti neurali di qua, qualche miliardo di calcoli al secondo di là, e si ottiene una giusta rappresentazione del sistema (leggisi cervello umano). ChatGPT è molto bravo (o brava?) a IMITARE le parole umane e i discorsi umani (lo sappiamo tutti e siamo d'accordo), ma mostra una SCARSISSIMA capacità di fare operazioni logiche sul discorso e sulla dialettica in generale, perché non riesce ad astrarre elementi della frase in concetti veri e propri. Ma chi dice che non possa sviluppare in futuro questa capacità che noi umani invece abbiamo (o che sembriamo avere)? Alla fine, se il pensiero è effettivamente descrivibile deterministicamente, pian piano ci si arriva (ammesso che riusciamo ad avere una tale potenza di calcolo). Tra l'altro non è detto che sia un processo esponenziale. Potrebbe anche essere che oggi abbiamo una AI scema, domani meno scema, tra 50 anni una scimmia e tra 100 anni un uomo. Dipende dai mezzi di produzione, scarsità di risorse, possibilità economiche/tecnologiche e forse proprio fisiche.
@mattia.garutti.oncologo10 ай бұрын
Grandioso! ❤️
@Mr_robot83410 ай бұрын
Un finale da poeta parlante. Sarebbe bello tornare agli albori di questo canale. Nella speranza che nel frattempo sia stato scritto “un grande poema su un bicchiere d’acqua”.
@paolabolognese353011 ай бұрын
Parlane da Geppi 🎉🎉🎉 "Splendida Cornice" RAI 3, giovedì ore 21.30, bravissimo !!!
@giusepperegano509810 ай бұрын
Grazie anche per avermi fatto scoprire dell’ottima musica 😊
@RadoGiuseppe7 ай бұрын
A distanza di 3 mesi, Chat GPT ha studiato e si è aggiornato!
@thazup22110 ай бұрын
È proprio così, per chat gpt non c'è differenza tra sapere ed inventare, chat gpt genera testo, punto. Solo in alcuni casi si rende conto di non avere sufficienti dati sull'argomento per rispondere. Ecco, se io fossi nei panni degli sviluppatori, per aumentare l'illusione, migliorerei questo aspetto, cioè aumenterei la consapevolezza di ciò che non sa.
@coencoen.11 ай бұрын
" _la segretaria quasi privata_ (se cercate il film col titolo originale _the desk set_ non lo trovate) : è del 1957 e c è katherine hepburn che impersona molti di noi : guardatevi "
@andreapanuccio29510 ай бұрын
Ciao Roberto, video interessante come sempre. Hai intuito molto bene il modo "di pensare" di un modello generativo. Principalmente le limitazioni sono 2: I modelli attuali non hanno problemi nel cogliere la sintassi dagli input grezzi. E la sintassi dipende dal medium; infatti abbiamo già modelli multimodali. Dopo la sintassi, però, tocca alla semantica, e questa dipende dal contesto, che i modelli sanno gestire con il cosiddetto "attention mechanism" e dai pragmatics, "le intenzioni" che chi veicola un messaggio ha, e per far questo serve un meccanismo di ragionamento. Al momento alcuni stanno studiando proprio questi "modelli causali" (a riguardo ti suggerisco l' accessibile e stupendo "book of why" di Judea Pearl). I modelli causali cercano di creare, sul modello statistico, un modello causale che spieghi le relazioni di causa-effetto, permettendo i due step di induzione e deduzione. Modelli simili possono quindi anche fare le "controfattuali", ovvero porsi le what if question ed ipotizzare "mondi ipotetici (e.g. cosa sarebbe successo se quella cosa fosse andata diversamente?). Siamo lontani dall'applicare ciò su modelli complessi come un gpt ma questa è la prima delle mancanze. La seconda è il fatto che sia stateless, non ha memoria: sembra che ne abbia una perché gli viene passato in input anche tutto ciò che gli hai chiesto prima nella chat ma in realtà non ha una memoria; per questa ragione ti sentivi a pelle piuttosto restio a dire che ne avesse una; hai fondamentalmente ragione. I modelli attuali possono solo apprendere pattern, quindi il vero divario sta "nelle sfumature dell' intelligenza" che manifesta, secondo la mia modesta opinione. Ci tenevo a darti i miei 2 cent, da prendere con le pinze ma che spero possano darti spunti interessanti
@stranecoseinvariecase11 ай бұрын
Come sempre un contributo davvero importante ed interessantissimo...
@Dariocomposer10 ай бұрын
Per Spotify la scelta dei brani suppongo sia basata sui metadata, i quali descrivono i generi musicali non solo per stile, ma anche per caratteristiche del tipo "esoterico", "magico", "nostalgico", "romantico", "oscuro" e tante altre sottocategorie su cui i motori di ricerca musicali si basano oggigiorno. Il genere musicale è stato sostituito da una sorta di caratteristica emotiva che il brano trasmette. È un linguaggio che si è adattato alle parole usate dagli utenti quando cercano una determinata musica anziché uno specifico artista. L'algoritmo è quindi basato sull'esperienza acquisita dal linguaggio popolare nel mondo virtuale
@cristingreen10 ай бұрын
Ciao argomento molto interessante è la prima volta che ti vedo. AI non ha esperienza ma ha in memoria tutto lo scibile umano di scritture di chi le ha avute......e la capacità di interpolarle migliorando forse all'infinito. L'umano deve decidere eticamente cosa vuole farne. Grazie per Pedretti non lo conoscevo
@Bobbicaponata10 ай бұрын
Grande Robe'. Mi piace questo filosofeggiare
@Federicocx19211 ай бұрын
Mi fai scassare dal ridere ❤In più porti cultura e informazione. Non so che dirti dio ti benedica Roberto! ❤😂
@enzoubaldopetrocco885410 ай бұрын
Un modo per valutare la qualità di alcuni modelli come gli autoencoders è proprio il fatto che dato un classificatore che riconosce se le immagini sono vere o artifatte le deve confondere! (Riferito alla parte che riguarda Spotify) (Anche io l'ho trovato assurdo ahaha) comunque bellissimo video! Sono sempre molto stimolanti!
@lauravaccario278811 ай бұрын
Quella dell'okapi mi ha fatto venire in mente il "sarchiapone" di una spassosissima, famosa scenetta degli anni '60 di Valter Chiari: la conosci? Chi se la ricorda? Davanti a un ipotetico animale (il sarchiapone, appunto) che non conosce, Valter Chiari ne inventa le caratteristiche più strane pur di non ammettere che non conosce quell'animale (che poi alla fine si rivela... non esistere!)
@jumaione10 ай бұрын
per ora, man, per ora
@fabios.695310 ай бұрын
Uso Photoshop con ai da qlch mese ed ho notato stessa cosa, da una parte ti lascia allibito nella ricostruzione di parti mancanti di foto, altre volte sembra non capire davvero nulla di cosa vuoi, nonostante montagne di istruzioni
@massimovelluti650110 ай бұрын
Funzione interpolate
@kkkkk7910 ай бұрын
A parte qualche svarione ha una capacita straordinaria di reperire informazioni, elaborare le richieste, capire il contesto, e fornire soluzioni a problemi complessi
@Incognito-yd6hh11 ай бұрын
Sei geniale!!!😂😂😂😂😂 Ciao di España!
@snakeshepard976111 ай бұрын
Hai pensato che forse ChatGPT ha qualcosa contro i poeti romagnoli? Credo valga la pena di provare con poeti di altre regioni, magari del Trentino.
@shadowplayer160911 ай бұрын
La risposta che ha dato a me “Tito Balestra (1923-1976) fu un poeta e scrittore italiano, noto per la sua poesia lirica e intimista. Nato a Longiano, in Emilia-Romagna, si distinse per le sue opere che esplorano temi come l'amore, la solitudine, il rapporto con la natura e le riflessioni sulla vita e sulla morte. Oltre alla poesia, Balestra scrisse anche saggi e articoli. La sua opera è apprezzata per la profondità emotiva e la capacità di catturare in versi le sfumature dell'esistenza umana.”
@Gabric_12311 ай бұрын
evidentemente l'IA ha "guardato" questo video...
@henriolamachannel10 ай бұрын
@@Gabric_123 L'autore del video non utilizza Chatgpt pro...
@henriolamachannel10 ай бұрын
Vero...Critiche non molto attendibili se il test non viene fatto su Chatgpt pro
@Fulvio64010 ай бұрын
Credo sia la più bella descrizione del principio della stanza cinese. Primo tentativo speculativo di superare il concetto di macchina di Turing.
@manuelitamazza401411 ай бұрын
Grande Roberto!!!! E grazie ❤
@Giocherellone10 ай бұрын
Ancora deve istruirsi, nel tempo ci supererà, fidati. 😉
@giovannisardisco454110 ай бұрын
Io ho chiesto a ChatGPT se conoscesse il Conte Mascetti e i 3 film più famosi, mi ha risposto che è interpretato da Paolo Villaggio e i suoi film sono: Fantozzi, Il secondo tragico Fantozzi e Fantozzi contro tutti. Ah, non chiedetegli di fare una supercazzola perché non ci riesce 😂
@guglielmolamarca64759 ай бұрын
Sei un grande!
@fozthebest11 ай бұрын
Grazie Roberto per continuare a tenere aperto il dibattito quanto mai attuale sul tema. Da diverso tempo comincio a pensare che l'unico compito per cui l'IA sia programmata, nella specie ChatGPT, sia solo cercare di fornire risposte soddisfacenti agli utenti. Questo talvolta avviene calcolando se può risultare soddisfacente dire "non ho dati in merito", talvolta inventando di sana pianta la risposta, difatti, ripresentando la medesima domanda, la risposta cambia (con l'aggiunta di quanto hai detto tu ovviamente). Sicuramente, come molti utenti hanno già sperimentato, pare che il programma riesca ad elaborare risposte "giuste" molto meno frequentemente quando la domanda è poco elaborata. Ciò è paradossale, perché se uno vuole fare una domanda relativa a qualcosa che non conosce, dovrebbe essere il programma ad indirizzarlo nella direzione corretta, magari fornendo anche solo qualche limitata informazione che permetta un approfondimento (poche info, ma "buone"), invece di uscire con delle cose inventate. Mi auguro che questo comportamento deviante dell'IA venga presto corretto, ma al momento è estremamente fuoriviante, e potenzialmente pericoloso, considerando che ChatGPT è accessibile a tutti, e non tutti possono pesare l'utilità della risposta nel modo più appropriato, anzi, più va avanti così, e più il programma "imparerà" a fregarci sparando balle.
@DaniloSalvadori10 ай бұрын
Il meccanismo che hai notato avvenire in chatgpt è conosciuto nel mondo dell'informatica. Si chiama tecnicamente "allucinazione" ed ha molteplici cause tecniche. In parte può essere dovuto ai dati usati dall'ia, in altri casi al fatto che il modello generativo prioritizza la creazione di una risposta coerente e che "suoni" sensata piuttosto che la correttezza delle informazioni stesse; inoltre ia come chatgpt usano la storia delle comunicazioni precedenti con altri utenti per apprendere e questo può ulteriormente causare allucinazioni. Però questo non significa che un'ia non può sapere la differenza tra realtà ed invenzione. Perché comunque parte da dati. Un algoritmo per consigliare musica, come quello di Spotify che citi, può effettivamente basarsi solo sugli ascolti degli utenti (a te piace x e piace y, quindi a chiunque ascolta x l'algoritmo consiglia anche y) ma con un modello più elaborato potrebbe tranquillamente interpretare la musica stessa per dare consigli specifici. D'altronde la musica è un linguaggio codificato fatto di note, toni, ritmi ed elementi chiaramenti codificati. Quindi se l'ia avesse a disposizione nel suo modello la capacità di interpretare e paragonare questi elementi non sarebbe così diversa da un ragionamento umano che dice "questi due gruppi suonano simili quindi te li consiglio assieme".
@francescosantese311510 ай бұрын
Hai usato la versione 3.5 o la 4.0? Ad ogni modo anche a me è capitato molte volte che mi dicesse cose sbagliate, se gli fai notare che è sbagliato spesso ti dice "mi scuso per l' errore" e poi ti da la risposta giusta, oppure puoi chiedere da quali fonti ha preso quelle informazioni. La cosa che io trovo più fastidiosa è invece che ogni volta che gli chiedo "è meglio il prodotto a o il prodotto b" ti dice sempre "dipende" anche se è lapalissiano che uno sia migliore dell' altro. Secondo me è una limitazione voluta dagli sviluppi per evitare di essere accusati di pubblicità occulta o simili.
@rosabarone472011 ай бұрын
Riflessione molto utile. Grazie
@giuseppe.vavassori11 ай бұрын
Ciao Roberto, Mi è capitata la stessa cosa l'anno scorso chiedendo a chatGPT se conoscesse gruppi musicali emergenti/locali (che se ci pensi è la fusione dei due "capitoli" di cui hai parlato tra ChatGPT e Spotify): il risultato è stato lo stesso che hai riscontrato, ossia ha inventato una descrizione di questa band (la prima prova la feci con i "Ministri"). Ho allora provato altre band locali o emergenti e mi resi conto che la risposta non era completamente a caso, ma semplicemente era come se conoscesse quelle band, ma mischiasse i dati tra di loro, scrivendo per esempio formazione con membri di band diverse, album di un altro artista, luogo e anno di formazione ancora di un'altra band. Era strano perché i nomi dei membri, i titoli degli album e le canzoni esistevano ed erano riferiti pure alle varie band emergenti richieste, ma ogni volta mischiate tra di loro. Probabilmente anche con te è successa la stessa cosa