il fatto che abbia cannato un esame è la prova del fatto che sia intelligente come noi umani 😂
@circlerick9891 Жыл бұрын
Vedendo lo svolgimento di questo problema un mio ex prof avrebbe detto "come rendere il facile difficile attraverso l'inutile"
@carlottazza Жыл бұрын
Questa te la potervi anche risparmiare. Non se ne sarebbe accorto nessuno, te lo garantisco. 😉
@circlerick9891 Жыл бұрын
@@carlottazza sono fortunato, almeno se n'è accorto Antonio
@carlottazza Жыл бұрын
@@circlerick9891 Mi riferivo al fatto che tutto il video è finalizzato a testare il funzionamento di chatGpt e non a risolvere il problema che di per se può essere più o meno banale. Ma il tuo intervento lasciava chiaramente intendere che l'obbiettivo poteva essere quello di cercare di risolverlo usando chatGpt e mi sembrava un po fuori luogo, perché non si sta cercando di risolvere un problema facile tramite uno strumento difficile nonché inutile, ma tutt'altro. Gpt sta cambiando il mondo e ci troviamo nel bel mezzo di una nuova era, quindi tutti gli aggettivi puoi usare tranne che 'inutile'. 🙂
@manuelferrante7710 Жыл бұрын
Scusami ma come faccio ad utilizzare anch'io questa ChatGpt con ragazza CHE Parla.. spiega.. col labiale?.. grazie
@paolovolante Жыл бұрын
Grazie per il video. Mi incuriosisce sapere se hai usato GPT4 e se hai attivato il plug-in Wolfram Alpha. Se così non fosse potrebbe essere interessante vedere se le risposte sono migliori usando GPT4+Wolfram.
@alimbrajii3657 Жыл бұрын
Non crederò mai che esista una qualsivoglia IA che possa emulare nemmeno un batterio. Un canale ottimo
@Shanks6515-y3h Жыл бұрын
Teniamo conto che come forma d'intelligenza artificiale è ancora in fase embrionale, essa continua ad apprendere, e sicuramente, nel tempo, diverrà qualcosa di davvero assurdo (penso). Bel video comunque, e grazie per tutte le tue conoscenze e le tue spiegazioni, molto interessanti anche per chi non è più studente da un bel po'.
@carlottazza Жыл бұрын
Non continua ad apprendere, perché il modello Gpt è di tipo Transformer, il cui addestramento viene solo eseguito in fase di training ed è già stato fatto. Può apprendere o seguire delle direttive che gli si possono fornire per ogni sessione di dialogo, ma la sua base di conoscenza e relazioni rimane invariata e consiste in un enorme insieme di tensori ad alta dimensionalità, che contengono tantissimi parametri per fissare i concetti, le relazioni, i contesti e tante altre variabili che permettono al modello di simulare il metodo del nostro cervello di gestire la conoscenza. Tutto grazie a decenni di ricerca nel campo delle reti neurali e del machine learning.
@lodianaporue34436 ай бұрын
Sarei davvero curioso di vedere gli esiti con i modelli attuali 😊
@Dema990 Жыл бұрын
L'ho detto fin dall'inizio che ChatGPT dovrebbe fare il politico è bravissima a dire supercazzole convincenti
@MatteoTorreggiani Жыл бұрын
La mia ignoranza mi dice che una ipotetica studentessa così ha sempre ragione 😑
@Massimo.Bianchi11 ай бұрын
In che sito si trova questa versione di chatgpt?
Жыл бұрын
Cifra accade se si corregge gpt? Sarebbe interessante indicargli l'errore e vedere se propone una soluzione diversa
@op7519 Жыл бұрын
Sì, si corregge, ma non per forza bene
@conts8762 Жыл бұрын
Spesso e volentieri peggiora e si impantana quando si parla di calcoli. Se ci parli di altro spesso si riprende ma a volte da risposte un po' "paraculate" in cui ripete quello che le si dice
@francescoscaglione5182 Жыл бұрын
Trovo qst tuoi 2 video su ChatGPT tra i più interessanti e intelligenti attualmente on line, così come molto utile - e altrettanto intelligente - è l'uso dimostrativo di un esame di Stato. Ma secondo te come mai uno strumento AI come qst, sebbene ancora agli inizi, rischia di complicare così tanto un'operazione come un esame di Stato? è forse perchè è stato progettato x lavori più articolati e di maggiore livello, come in qualche modo accennavi alla fine? Cmq, davvero 2 video super interessanti. As always 👍
@claudiogiannini9764 Жыл бұрын
concordo, anche per formule più semplici (quanto è distante l'orizzonte e altri problemi di geometria) li canna tutti al primo giro
@ambientmusicandotherstuff376 Жыл бұрын
gli ordini per farle fare quello che vogliamo in maniera efficace sono due: agisci come esegui passo passo ad esempio "agisci come uno studente che ha studiato perfettamente, risolvi il problema passo passo" chat gpt allo stato puro è settata per comportarsi come un'interlocutore generico, se non le si danno gli ordini specifici non va in fondo e sceglie la strada veloce
@giovannisardisco4541 Жыл бұрын
Dubito che indicando di agire come uno studente delle superiori che ha studiato perfettamente e indicando di agire passo passo, ChatGPT dia la soluzione corretta. Non fa ragionamenti su ciò che scrive, ma predice solo la forma più corretta di mettere le parole una dietro l'altra, in base alle parole in input e al contesto che si è creato con le domande precedenti (e neanche tutte)
@giovannisardisco4541 Жыл бұрын
@@lupo_strafatto se per ragionamento intendi il calcolo che scriva la parola probabilmente più attinente alla precedente, si.
@antonioromano1958 Жыл бұрын
Guarda, con me ha toppato con un problema elementarissimo sui gas perché scriveva bene il procedimento ma cannava il risultato numerico. A volte li fa bene, altri no. Non si può pretendere di più e quindi il sogno di farlo ragionare in modo astratto al posto nostro su temi matematici è chiaramente un'utopia.
@carlottazza Жыл бұрын
Lo fa già con il plugin di Wolfram. Basta porgli le richieste nel modo corretto.
@alieno1183 Жыл бұрын
Se provi a dirle che deve farla come uno studente di 5 superiore ? Cioè in poche parole che deve comportarsi come uno/a studente/ssa delle superiori e non come un universitario/a ? le risposte sarebbero state le stesse o più in linea con le tue prevvisioni ?
@LDTube-pz9fq Жыл бұрын
non credo possa farlo, non ha contezza di cosa significa "fare le cose come uno delle superiori". Dovrebbe attingere a quei siti o documenti dove è specificato che l'autore era uno studente delle superiori ma sarebbe anche lì messo in confusione dai milioni di differenza che ci sono tra diversi studenti delle superiori e il loro modo di elaborare un problema.
@alieno1183 Жыл бұрын
@@LDTube-pz9fq l'avevo chiesto perchè tu puoi dire che è un professionista e quindi in teoria dovrebbe funzionare. Visto che devi dare una specie(?) di conoscenza base. Che dovrebbe avere chi lo sta risolvendo. PErchè se metti questa cosa : dimostrare che 1+1=2 ? Dimostralo in questi 4 casi, e spiegandolo come lo faresti per ogni di essi: 1) tu sei uno studente delle elementari; 2) tu sei uno studente delle medie; 3) tu sei uno studente delle superiori; 4) tu sei uno studente dell'università. ti dà diverse risposte e per me sono tutte valide.
@DANIEL_--_-_-_-_521 Жыл бұрын
È ad una fase molto embrionale dunque non dovrebbe stupire questa performance, diamogli tempo perché a livello scolastico è molto carente, ma a livello biomedico ha presentato risultati interessanti per quanto riguarda l'interpretazione di esami concernenti l'imaging e teorizzare molecole biologicamente attive.
@DANIEL_--_-_-_-_521 Жыл бұрын
@@imbragador in buona sostanza l'interpretazione degli esami radiologici è una tappa per la diagnosi finale per certi casi, per altre situazioni invece basta la diagnosi radiologica, riuscire a capire cosa significa un radiogramma è una questione di esperienza per l'uomo e l'intelligenza artificiale condensa nella sua banca dati milioni di radiogrammi, dunque è più una questione statistica per l'IA di azzeccare la diagnosi, la medicina in certi aspetti diagnostici otterrà grandi vantaggi, ma nei trattamenti farmacologici va ancora migliorata in vista di terapie sempre più personalizzate e meno standardizzate (per genere, età, etnia ecc...) insomma almeno per le cose più comuni ha una sua utilità ma per quelle più complesse ci andrei francamente cauto. Sulla questione della fisica non saprei dirti ma ora è prematuro parlarne adesso, riprendiamo il discorso tra 5 anni.
@giovannisardisco4541 Жыл бұрын
ChatGPT non è stata progettata per far calcoli, n'è ragionamenti. Fa solo predizioni statistiche del susseguirsi delle parole. L'uso che ne hai fatto dimostra come NON vada usata. Se la porti sul campo della disquisizione, probabilmente lì qualcosa di decente la tira fuori, ma al primo errore sarà facilissimo portarla in contraddizione, dato che non da un significato alle parole.
@giovannisardisco4541 Жыл бұрын
P.s. non è una critica negativa al video
@RandomPhysics Жыл бұрын
È un modello di linguaggio, certo, ma questo è un limite fino a un certo punto. Addestrando a dovere il modello, l'accuratezza nella risoluzione di esercizi può migliorare molto e raggiungere percentuali di correttezza sempre più elevate, al di là del fatto che ci sia o meno dietro una logica di tipo analitico nell'affrontare il problema che viene risolto. Anche la matematica è un linguaggio, il cui uso può essere continuamente affinato attraverso i vari tipi di machine learning coinvolti. Per ora sicuramente i risultati migliori si ottengono nei test a scelta multipla, in cui è frequente che ChatGPT azzecchi un buon 70-80% delle risposte corrette, ma non mi stupirebbe se fra un po' di tempo dovesse essere in grado di svolgere alla perfezione una prova d'esame come quella del video.
@DANDY476 Жыл бұрын
@@RandomPhysics esattamente. Immagazzinano miliardi di concetti e di soluzioni. Un o come chiedere la soluzione giusta di un problema a centinaia di scienziati ,contemporaneamente. E' chiaro che una soluzione esatta salta fuori.
@Pcomepdor Жыл бұрын
@@RandomPhysics mmm...come mai vuoi usare un sistema probabilistico per risolvere problemi deterministici? E' sufficiente addizionare due numeri poco comuni per cogliere in fallo chatGPT, per quanto affascinante, troverei cmq poco utile addestrarlo a risolvere operazioni matematiche per cui performerebbe in ogni caso peggio di una calcolatrice casio degli anni 80. Piuttosto, sarebbe interessante integrarlo con un middleware per eseguire calcoli, aggiungendo nel modello una funzione che, una volta identificate delle operazioni matematiche, le passa ad un normale calcolatore che gliele ritorna esatte e precise.
@carlottazza Жыл бұрын
La base statistica ricopre solo una delle caratteristiche interne del modello, che si basa su un set enorme di tensori contenenti tantissimi parametri che estrapolano il ragionamento e la logica umana per strutturare concetti e relazioni che generano il linguaggio. Il linguaggio se ci pensi, rappresenta la sintesi più completa di tutto il nostro modo di ragionare ed organizzare concetti e relazioni, quindi eseguendo un reverse engineering dal nostro linguaggio, più o meno come ha fatto gpt in fase di training, si può risalire a tutta la nostra capacità di elaborare idee e relazioni. Probabilmente è questa la strada maestra che presto ci porterà ad un Gpt-X che sarà assimilabile ad una AGI o magari ad una ASI ancora meglio.
@andreamarta5653 Жыл бұрын
Anche io ho messo alla prova chatGPT con un problemino facile facile con dirette applicazioni pratiche: Data una vibrazione sinusoidale con accelerazione pari a 5g e frequenza pari a 60 Hz, si chiede l'ampiezza picco-picco del moto. Vi evito la sbrodolata di cavolate generate: dalla costante elastica alla massa del corpo. Interessante invece è notate che a fronte della mia correzione, proponendo una doppia integrazione nel tempo, pare che chatGPT abbia recepito la soluzione adattando il suo modello interno. Giorni dopo ho riproposto la medesima domanda ricevendo questa volta la risposta corretta. Qui nasce il dubbio: non è forse che chatGPT attinga a dataset non verificati e quindi riproponga soluzioni facendo un minestrone tra tuto quello che fornisce la rete ? In tal caso la soluzione potrebbe limitarsi al filtrare i dataset da parte di persone qualificate.
@vitofranco7342 Жыл бұрын
Mi sembra solo una mega enciclopedia che linha attraverso algoritmi gli argomenti chiati....cioè una stronzata
@EIKEMERREL Жыл бұрын
La cosa più bella è che non ho capito assolutamente nulla del problema
@tuccio75 Жыл бұрын
che succede se la correggi?
@ivanbelli788 Жыл бұрын
Prova a chiedergli di svolgerlo passo dopo passo, una ricerca universitaria ha dimostrato che in questo modo aumenta l'affidabilità delle risposte
@xdellavedova Жыл бұрын
considerando una stima di 50 a 300 petaflop di calcolo richiesti per l'addestramento di GPT-3, e tenendo conto del fatto che una GPU A100 offre circa 1,3 petaflop di potenza di calcolo in precisione singola, si potrebbe avere bisogno di 40 a 230 GPU Nvidia 4090 per raggiungere la potenza di calcolo richiesta. questa la risposta di chatGPT
@mauriziotalamo2483 Жыл бұрын
Ha appena iniziato a lavorare! Quindi non vale. Quello che è sorprendente è che ottenga risultati di apprendimento apparente così evoluti con tecniche così semplici
@massr8306 Жыл бұрын
Come sei riuscito ad interfacciare chatGPT con un avatar realistico ? Saluti
@diegodamo813 Жыл бұрын
Chissà se si sarebbe messa a piangere se le avessi detto "Signorina, le cose le sa...ma le consiglierei di tornare a Luglio, altrimenti le devo mettere 18".
@euyin779 ай бұрын
Perché non mostri mai l'intera dichiarazione del problema? Impossibile di capire cosa chiede un problema se non possiamo vedere la sua dichiarezione!!
@deluigiroberto4744 Жыл бұрын
Forse se gli chiedevi di risolvere la prova come uno studente delle superiori avrebbe fatto meglio, quantomeno sui formalismi, senza mischiare variazioni finite ed infinitesime. Magari avrebbe adottato un approccio semplificato. So che su queste differenze è abbastanza sensibile, seppur in altre materie
@filippo5219 Жыл бұрын
La tua sconsolazione di quanto è ripartito con gli infinitesimi a calcolare la parte magnetica, vale il video 😂 "Eh niente, la vedo grigia". Comunque ho seguito da poco un video di un ragazzo che usava chatGPT come insegnante di chitarra e li è stato ancora più penoso, a mio avviso. Vero è che essendo un' IA dovrebbe imparare, sarà curioso monitare il progresso
@criba84 Жыл бұрын
L’ai in questione non impara dall’uso (o meglio automaticamente come ci hanno abituato). L’errore è pensare a un ai come quella nei film. Chatgpt è un ai testuale che interpreta e rielabora una serie di testi.
@fbolognesi Жыл бұрын
Io ho chiesto a ChatGpt di parlare del mio paese, beh in una quarantina di righe in un italiano che ritengo perfetto sia come ortografia che struttura sintattica ha infilato una serie di inesattezze mostruose, sbagliando nomi e epoche di monumenti, sbagliando la produzione agricola preminente e letteralmente inventando eventi artistici mai verificatesi nel nostro territorio (Centro Ricerche Musicali diretto da Bruno Maderna, io ho 75 anni sono nato e vissuto sempre a Budrio e mi risulta che Bruno Maderna non è mai venuto a Budrio). Praticamente le uniche due cose che ha indovinato sono la posizione rispetto a Bologna (nord-est) e il santo a cui è intitolata la chiesa parrocchiale (San Lorenzo). Se avesse consultato Wikipedia avrebbe sbagliato di molto meno.
@albertobattisti962 Жыл бұрын
Molto carina, ma ha le idee un po' confuse. Mi propongo per darle qualche ripetizione😂
@mariousai Жыл бұрын
ma secondo te chatGPT esegue i calcoli per davvero? o ripropone una soluzione trovata su internet? spero che la domanda sia chiara
@RandomPhysics Жыл бұрын
È un modello di linguaggio, quindi di base formula frasi che massimizzano la probabilità di essere corrette in base a vari fattori, compreso l'addestramento iniziale e il feedback di altri utenti, di esperti e altre tecniche di machine learning. Quindi non svolge calcoli e non effettua ragionamenti, ma propone strutture di parole e formule che secondo criteri molto complessi sono probabilmente corrette.
@giacomogulli529 Жыл бұрын
@@RandomPhysics 🤔 se non svolge calcoli, dove ha preso elle maiuscolo alla terza? 🎭👹👺😁
@nicoladiana8879 Жыл бұрын
Complimenti, ma la cosa interessante è anche spiegare come hai fatto a parlare con ChatGpt mediante un video?
@manuelferrante7710 Жыл бұрын
Chissà come sarebbe andata se GLI spiegavi che si trattava di Esame di Stato delle Superiori 🤔
@old8088 Жыл бұрын
Ho inoltre notato che le capacità tipiche di un motore inferenziaale sono abbastanza carenti. Il dedurre nuove regole da esistenti è a mio avviso abbastanza importante per una ia
@manuelfantoni115 Жыл бұрын
Ti giro copia di una domanda che ho rivolto tempo fa a ChatGPT, la cui risposta è piuttosto interessante a mio giudizio; bisogna ammettere che almeno le hanno insegnato l'umiltà: - Che cosa è il claustro? Il termine “claustro” può avere diversi significati a seconda del contesto. In architettura, il claustro può riferirsi a un cortile chiuso all’interno di un edificio, spesso utilizzato come luogo di pace e tranquillità. Nelle scuole o nelle università, il claustro può riferirsi al gruppo dei professori o dei membri del personale. In psicologia, il claustrofobia è la paura di trovarsi in spazi chiusi e angusti. - Forse clostro? Sì, “clostro” è una forma errata del termine “claustro”. Il significato è lo stesso di cui ho parlato nel mio messaggio precedente. - Non ha attinenze con la fisiologia umana? No, il termine “claustro” non ha attinenze con la fisiologia umana. Tuttavia, in medicina, il termine “clostridium” si riferisce a un genere di batteri che possono causare diverse malattie nell’uomo, come la tetano o la difficile infezione delle ferite. - Ma il claustro non è anche una sezione del cervello? Sì, hai ragione. Il claustro è anche una struttura anatomica del cervello. Il claustro è una regione molto piccola e densamente connessa del sistema limbico, che è coinvolta in molte funzioni importanti, tra cui l’elaborazione dell’emozione e della memoria. Il claustro è stato oggetto di molte ricerche negli ultimi anni, sia per quanto riguarda le sue funzioni sia per le sue implicazioni nello sviluppo di disturbi neuropsichiatrici come la depressione e la schizofrenia. - Come mai non lo sapevi? Sono un modello di linguaggio sviluppato da OpenAI e ho accesso a una vasta quantità di informazioni, ma non sono perfetto e potrei non sapere o non ricordare alcune cose. Tuttavia, cercherò sempre di fornirti le informazioni più accurate e aggiornate possibili. Grazie per avermi fatto notare questo errore. - Figurati, spero averti fatto cosa gradita Assolutamente! Mi fa sempre piacere migliorare e imparare cose nuove. Se hai altre domande o informazioni da condividere, sarò felice di ascoltare.
@gianluigiridolfini1645 Жыл бұрын
Dovresti provare a ridargli la domanda iniziale per vedere se ha effettivamente imparato dal suo errore
@marcocappiello3164 Жыл бұрын
Morale della storia: non copiate con ChatGPT!
@angelorossi1045 Жыл бұрын
Grazie
@salvatorefesta7330 Жыл бұрын
Le feci scrivere un programma di gestione in java e non sbagliò neppure una riga di codice
@massr8306 Жыл бұрын
La prova non ha senso poiche' la chat non ha la capacita' di decodificare immagini quindi ha parzialmente accesso al testo di esame
@leonardo5225 Жыл бұрын
ChatGPT troppo giovane per conoscere il tubo a raggi catodici...
@alessandroquattrocchi7093 Жыл бұрын
hai usato synthesia per dare voce a chatgpt?
@RandomPhysics Жыл бұрын
esatto
@andygoldensixties4201 Жыл бұрын
conferma il mio sospetto che questo software è abbastanza bravo (soprendentemente bravo per chi si ricorda ancora i limiti di "Elisa", il primo software "interattivo" degli anni '80, che girava persino sullo Spectum ZX...) a fare una collazione, una compilazione di ragionamenti e analisi fatte da umani, ma se si richiedono soluzioni originali, per quanto ne capisco, non mi sembra ancora in grado di farlo correttamente, non è capace di dedurre il contesto della domanda, non correla i passaggi dei suoi calcoli e non si sa autocorreggere
@LDTube-pz9fq Жыл бұрын
perché non esiste l'intelligenza artificiale forte, e quella debole (come ChatGPT) è solo un modello automatizzato, certo che non può trovare soluzioni, avere opinioni, usare figure retoriche e analogie, inventare cose nuove. Può solo fare un minestrone dei siti a cui è stato esposto nella fase di training.
@fabriziomeinero7 ай бұрын
dire cose come "ovviamente chatGPT non ha nessuna idea que questa e' una simulatione di un' esame..." vuol dire che non gli hai dato informazioni complete. L' output di un' AI dipende tanto anche dall'input. Se vuoi una risposta precisa devi fornire un contesto preciso.
@cosimocorigliano7113 Жыл бұрын
A sto punto ti tocca risolvere il problema in un video
@LorenzoMereu1990 Жыл бұрын
lasciando perdere ChatGTP, potrebbe essere in in un prossimo futuro nuove scoperte teoriche siano fatte da intelligenze artificiali?
@LDTube-pz9fq Жыл бұрын
no, le intelligenze artificiali non esisteranno mai (leggi l'esperimento della Stanza Cinese di Searle) perché possono esistere unicamente questi modelli linguistici automatizzati. Le IA possono solo formularle dati attraverso automazione non c'è alcuna intenzione e quindi non saranno mai in grado di creare nulla di nuovo (anche solo banalmente inventare una parola che non esisteva prima: tipo Babbano) non può perché può solo organizzare le informazioni che ha preso dalla rete e che altri hanno scritto.
@carlotassi2747 Жыл бұрын
Dì la verità... hai beccato un tuo studente che svolgeva una tua verifica con chatGPG e da lì ti sei ispirato... In tal caso si può dire che abbia tentato di ingannarti a buon fine. XDXD
@giacomogulli529 Жыл бұрын
E se fosse campo energetico, la E non sarebbe più vettore 😂😂😂
@isidoroferrante Жыл бұрын
Comunque ha fatto molto meglio della media dei miei studenti...
@old8088 Жыл бұрын
Umh. Alcune considerazioni: 1) la risposta è errata, al di là del formalismo scalare vettore 2) alle superiori io analisi matematica l ho fatta (infiniti esimi massimi minimi asintoti etc) ma andare a impelagarsi con questa roba beh, o sei sicuro o cerchi grane 3) volendo fare i pignoli non subisce un accelerazione uniforme. Non è un moto uniformemente accelerato perché ad ogni spostamento della particella questa cambia la sua distanza e di conseguenza anche la forza che agisce su di essa. 4) non sapevo che chatgpt fosse una f...a spaziale di quel calibro. A saperlo gli chiedevo un appuntamento.... 😄 5) i conti tornano , bella e non capisce nulla 6) studiate e fate funzionare la zucca che non serve a bilanciare la camminata ma a pensare e trovare soluzioni che la fisica è bella e affascinante soprattutto quando scoprite relatività e quantistica
@RandomPhysics Жыл бұрын
Concordo, sul punto n.3 in realtà il testo specifica che bisogna considerare il raggio dell'orbita circolare molto grande rispetto al cammino della particella, quindi ChatGPT ha approssimato bene il moto come uniformemente accelerato lungo y in base alla consegna (anche se non l'ho detto nel video).
@old8088 Жыл бұрын
@@RandomPhysics infatti ho scritto volendo fare il pignolone ;-) sarebbe interessante che tu pubblicassi una soluzione da scuola di secondo grado. Farei io ma sono troppo arrugginito avendo 53 primavere sulla schiena e non vorrei fare la figura di chatgpt ;-)
@emanuelem579 ай бұрын
Occorre considerare che l'algoritmo si dichiara imperfetto e la base del principio della intelligenza artificiale si basa sull'apprendimento da ciò che è presente da internet. In altre parole solo 'addestrandolo' da parte di chi lo potrebbe fare lo migliora. Criticarlo non aiuterà il progetto 😂
@giacomogulli529 Жыл бұрын
Thomson il padre o lo figlio 🤣
@chrspqr109010 ай бұрын
Eh niente, chat gpt bocciata, torna con la firma di Gates 🤣
@giacomogulli529 Жыл бұрын
È vero ogni tanto toppa😂
@agairbrush Жыл бұрын
non sono un fisico, ma se ha ragione lei? Puo essere che sono concetti fisici che per noi sono ancora incompresi e quindi per noi sono sbagliati.
@michelegianni389 Жыл бұрын
Buon tentativo, ma direi che ne hanno di strada da fare 😏
@DANDY476 Жыл бұрын
La Treccani diceva così anche di Wikipedia.
@user-bx7rw1pt4p Жыл бұрын
E wikipedia diceva così di tiktok
@000111Paolo Жыл бұрын
Per mettere in crisi ChatGPT basta molto meno: io ho chiesto un elenco di 50 trombettisti jazz italiani e ho ottenuto un elenco di 50 jazzisti italiani di cui solo una dozzina erano effettivamente trombettisti, gli altri suonano altri strumenti.
@fabriziocalicchia2121 Жыл бұрын
Sbagliare dimensionalmente un risultato è gravissimo anche per una i a.
@maxcecco7910 Жыл бұрын
Raga io ormai sono vecchio, e l'esame di maturita di matematica l'ho fatto perfetto pur avendo la media del2 perché ho circuito la figlia della prof convincendola ad aprire il computer della madre e darmi il compito la sera prima, ma pur avendo le capacita matematiche di una scodella in plastica non ricordo si trattasse di sta roba😂😂 ma che é o?? A me in quinta liceo (scentifico) potevi chiedermi le tabelline al massimo sta roba mai sentita😂
@fabiod.674 Жыл бұрын
Diciamo che sa come si integra, ma non ha ancora capito cosa è delta😆
@mauriziobuzzolo33867 ай бұрын
Se poi la correggi, ti chiede scusa e riprova a scriverlo giusto.
@claudiomigot5182 Жыл бұрын
Wolfram rules
@DANDY476 Жыл бұрын
E' chiaro che fra una decina di anni (ma anche prima), Chat GPT sarà i grado di conoscere tutto lo scibile umano, poichè sono TUTTI gli umani ( più o meno colti e ferrati nelle diverse discipline) che le forniscono le informazioni. (Un po come Wikipedia). " Chi è causa del suo mal....😀 "
@filipporabito3765 Жыл бұрын
Carissimo non farlo più non possiamo sapere se la prossima volta riuscirà a risolvere i problemi che gli poni, magari sarà lei a mettere in crisi te, e non so perché questa cosa mi fa paura. Come minimo danno queste A.I. chat non fanno altro che far parlare gli utenti e dare la possibilità agli sviluppatori di accatastare dati da cui estrapolare le preferenze dei consumatori, venduti al migliore offerente che è sempre quello che, avendo i soldi, ha la possibilità di indirizzare, attraverso i media, le preferenze della parte minoritaria verso i gusti della maggioranza, si chiama stardardizzazione ma non è che scoperto l'America, lo fanno da sempre ma ora le multinazionali hanno uno strumento in più e dei più insidiosi perché si autoalimenta
@RandomPhysics Жыл бұрын
Bisogna conoscere a fondo i mezzi che si sfruttano e non usarli passivamente con timore senza sapere cosa si sta facendo. Se devo scegliere, piuttosto scelgo di non usare i social in quanto oltre a inserirmi in una cosiddetta "eco chamber" e sfruttare ogni informazione su ciò che guardo e sul tempo che rimango a guardarlo costituiscono spesso una gran perdita di tempo. Per quanto riguarda ChatGPT, è un modello di linguaggio che uso quotidianamente per lavoro, per scrivere bozze, fare debug, stilare liste, ampliare testi, ecc. e questo mi risparmia ore di lavoro ogni settimana.
@filipporabito3765 Жыл бұрын
@@RandomPhysics non sapevo si usasse per motivi di lavoro, ma forse ciò è ancora peggio di quanto credessi, se non la usi sei fuori mercato se la usi ne rimani dipendente
@giannimorelli1383 Жыл бұрын
Però è carina ....chatgpt direi bona
@carlottazza Жыл бұрын
Vorrei chiarire un punto fondamentale per tutti coloro che continuano ad affermare che i modelli come Gpt, in realtà non ragionano, ma seguono dei criteri statistici per inferire via via le varie parole del linguaggio. Questo è assolutamente fuorviante e riduttivo, oltre che errato se si vuole comprendere il funzionamento interno dei modelli basati su reti neurali di tipo 'Transformer'. Immaginate che un giorno dovessimo incontrare una specie aliena che viene a farci visita e che quindi è più sviluppata di noi tecnologicamente. Cosa direste? Che per via del fatto che il loro cervello è completamente diverso dal nostro, e diverso è il modo di organizzare le idee e le relazioni, allora questi alieni non ragionano? Semplicemente lo fanno a modo loro, ma questo potrebbe essere addirittura superiore al nostro da un punto di vista oggettivo della gestione delle idee e della conoscenza, oltre che della capacità di estrapolare deduzioni. I modelli come Gpt sono dei software basati su modelli matematici che in fase di addestramento codificano le parole e le relazioni in un metalinguaggio fatto da vettori di embedding che sono costituiti da tantissime componenti dell'ordine di migliaia e che appartengono ad uno spazio vettoriale ad altissima dimensionalità in cui ogni vettore viene collocato in specifiche aree o zone di questo spazio in base al significato, al contesto ed a tanti altri parametri. Per fare un esempio: parole con significati simili, corrispondono a vettori di embedding vicini tra loro in questo spazio vettoriale. La traduzione nelle varie lingue avviene in fase di decodifica a partire da questo metalinguaggio comune, per generare i vari tokens corrispondenti alle sequenze di parole in ciascuna lingua. Spero che quando dovesse venire in mente a qualcuno di affermare che i modelli come Gpt sono solo degli algoritmi che fanno delle inferenze statistiche per costruire i propri outout, gli venga qualche minimo dubbio sulla coerenza della propria affermazione.
@LDTube-pz9fq Жыл бұрын
Non ha senso quello che dici. ChatGPT è un modello predittivo del linguaggio e può unicamente elaborare per automazione i dati che altri hanno creato e messo in rete senza poter creare nulla di nuovo. Ti consiglio di leggere l'esperimento della Stanza Cinese di Searle che spiega benissimo perché un IA non avrà mai capacità di ragionamento.
@carlottazza Жыл бұрын
@@LDTube-pz9fq Mi dispiace che tu abbia frainteso la portata dello strumento con cui abbiamo la fortuna di avere a che fare nei giorni nostri: il modello gpt non usa i dati dei testi che gli sono stati forniti nel processo di addestramento perché se tu provi a cercare uno di quei dati all'interno del modello, non ne troverai alcuna traccia. I modelli di tipo Transformer come Gpt usano i testi nella fase di training per risalire in un processo simile al reversing nel software, che gli permette di estrapolare tutte le informazioni sulle relazioni, sui contesti e sui significati di ogni parola. In pratica grazie alla fase di training il modello apprende a modo suo cioè matematicamente, il nostro modo di ragionare, di pensare e di generare idee. Quella di cui parli è una questione filosofica e non ha nulla di concreto o utile ai fini pratici di utilizzo. Perché è abbastanza chiaro che nessun computer con un software che gli gira dentro, almeno per il momento, può pensare nel nostro senso del termine, cioè allo stesso modo in cui noi pensiamo, ma questa è filosofia pura se vogliamo comprendere il contesto della conversazione. Nella speranza di essere chiaro, ti faccio un esempio: immagina di considerare un termine della nostra lingua come la parola 'Trattore', ma tu non hai mai visto un trattore nella tua vita però sei stato munito di tutte le informazioni logiche e semantiche che ti permettono di usare la parola 'trattore' correttamente ed in modo assolutamente appropriato in ogni contesto. Allora in questo caso, anche se tu non hai mai visto un trattore, quindi non hai proprio idea di cosa esso sia nella realtà fisica, il tuo comportamento o la tua capacità espressiva è perfettamente sovrapponibile a quella di tutti coloro che sanno perfettamente cosa sia un trattore anche nella realtà fisica. Con questo esempio spero di aver trasmesso il significato ed il valore unico di un modello come gpt-4 che può essere considerato la rivoluzione delle rivoluzioni, che stravolgerà completamente il mondo per come lo conosciamo.
@dmzt00 Жыл бұрын
Vale anche per banali quesiti di storia che normalmente vengono sottoposti a studenti liceali del triennio. Alla banalissima domanda "in che modo la pace di Westfalia ha condizionato l'attuale status geopolitico dell' Unione Europea" ha sciorinato una serie di date, nomi e fatti, senza minimamente utilizzare come il processo di causa-effetto ed analisi delle variabili alla base della Storia. Insomma, nozionismo puro.