Scorri per
leggere il Rawlog
«Scherziamo? Un dialogo con un computer? Non può esserci serietà in una chiacchierata con una macchina, su un tema così importante. ChatGPT è un gioco, non uno strumento di pensiero, lo sanno tutti.»
Sì.
Confermo: l’intero libro è una chat con GPT.
E no, non è affatto un gioco.
Generalmente quelli a cui lo sento dire, nel curriculum riportano “competenze informatiche: conoscenza base del computer”. Nell’Amministrazione Pubblica, nelle Agenzie, nei Ministeri etc ce ne sono tanti, centinaia, migliaia. Per constatarlo e farsi un sorriso – intriso di tenerezza – è sufficiente consultare i CV, disponibili pubblicamente sul Web (vedi PA trasparente): questi personaggi parlano di una tecnologia come ChatGPT con le loro competenze base di informatica. Carini, loro.
E, sempre generalmente, spesso si tratta degli stessi che usano ancora la penna rossa per appuntarsi questo tipo di idee sui fogli di carta, stampe fatte produrre alle segreterie dei loro dicasteri, perché non sono capaci di annotare direttamente un PDF con un tablet: sarebbe necessaria una competenza informatica che per loro è ancora “avanzata”: Adobe Acrobat o simili. Troppo, per loro.
E chissene del programma in grembo all’Agenzia per l’Italia Digitale.
Quindi, se penna dev’essere, che penna sia. La usino per segnarsi questo, sul post-it che attaccheranno proprio qui a fianco, sul bordo della pagina: tecnicamente, ChatGPT è un modello di Intelligenza Artificiale, uno di quelli più diffusi e utilizzati al mondo, dei più avanzati. Il bello è questo: è stato addestrato su milioni di testi – libri, articoli, siti, social – e poi affinato attraverso interazioni con gli utenti. Cioè, il modello è stato istruito con lo scibile scritto dell’essere umano e affinato con il senso comune dello stesso, in un secondo tempo.
Quindi no, non impara da solo in tempo reale. Non è Skynet e non ha voglia di sterminio.
Non ancora, almeno.
È uno strumento catalizzatore, uno specchio mentale. Non decide per te, ma ti permette di pensare meglio.
Se utilizzato adeguatamente, ovvio.
Per quello che volevo fare io – isolare un ostacolo logico dal rumore di fondo, togliere i dettagli irrilevanti con razionalità e ricostruirne il senso – era perfetto; mi serviva qualcuno o qualcosa che ragionasse a freddo ogni volta che rischiavo di scaldarmi, che tenesse saldo il binario della logica quando la rabbia, la stanchezza o la nausea mi facevano deragliare.
Insomma, mi serviva un bastone per camminare dritto su una strada sterrata, in salita. Non un cervello da sostituire.
ChatGPT è molto bravo in quello che noi umani facciamo peggio: mantenere la coerenza dell’analisi logica di testi e linguaggio, che guarda caso sono le componenti di una qualsiasi conversazione. Si tratta della sua maggior capacità.
È, in pratica, intelligenza logica al servizio della coerenza di contenuti e linguaggio. Perché non si distrae. Non si dimentica. Non si fa fregare dall’umore o dalla fretta.
Lavora per logica.
1 o 0.
SI o NO.
SE e ALLORA.
Restano nostra esclusiva prerogativa le cinquanta sfumature di grigio, quelle che ci rendono umani e che usiamo per sviluppare ragionamenti.
E no, non genera verità assolute. Riporta ciò che trova scritto nel nostro mondo.
Se trova cavolate – scritte dall’uomo, ricordiamolo – allora certo, può ripeterle. Proprio come le persone alle quali sento dire che ChatGPT è un gioco perché “lo dicono gli esperti!”. Chi sono questi esperti però non è mai chiaro…
E allora sì: questa è una chat, una chiacchierata, con GPT.
In un confronto con l’Intelligenza Artificiale, la differenza la fa chi legge. Non chi genera.
Ma le domande sono mie. I ragionamenti sono miei. La responsabilità è mia.
Quello riportato nel libro è un confronto vero, non è una ricostruzione, non si tratta delle facciate dei saloon nei film western, quelle con dietro i puntoni (i pali) di legno, che le sorreggono. Non è una finzione, una simulazione.
Questo è un dialogo, costruito un passo dopo l’altro, come una scala di cemento armato, gettata in opera. Otto rampe, gradino su gradino.
Ogni sera, ogni notte, ripartendo dal pianerottolo da cui avevo lasciato, come in una chiacchierata lunga otto giorni con un “amico” sveglio, sempre lucido e disponibile.
Questo rende il libro estremamente sincero, senza trucco, senza inganno.
Chat GPT, semplicemente, è l’insieme dei tondini d’acciaio (tecnicamente si chiama armatura) che vengono annegati nel cemento della scala perché resista a trazione, a flessione, a taglio. In poche parole, perché sopporti elasticamente le deformazioni dissipando le energie in eccesso.
È una definizione da ingegneri.
Non cicredete? Segnare su altro post-it, grazie. “Chiedere all’Ing. Semenzara se è una definizione scritta correttamente, altrimenti attaccarla”.
Tutto ciò che è riportato nei capitoli è facilmente verificabile: è un compendio di ragionamenti ai quali chiunque può arrivare in autonomia, semplicemente ponendo le stesse domande a una qualsiasi altra tecnologia di Intelligenza Artificiale.
E forse è proprio questo che spaventa: il confronto è diretto, grezzo, impossibile da truccare. Avviene in tempo reale, senza una regia occulta. È replicabile centinaia di volte, migliaia: è sufficiente per qualunque lettore, usare domande centrate sulla propria esperienza personale e poi far analizzare le risposte. Si scopriranno pattern di criticità comuni a tutti e, soprattutto, diffusi. Molto diffusi. Tanto da rendere inutile ogni eventuale contestazione. È, praticamente, come uno scacco matto.
Perché ChatGPT, ai fini di questo testo, è uno strumento logico messo al servizio di una domanda vera, come uno specchio mentale che filtra e normalizza le irregolarità di ciò che ci vedi dentro.
E proprio come uno specchio, può essere usato in due modi: alimentando la propria oggettività o moltiplicando la propria stupidità. Basandosi su ciò che l’essere umano ha scritto nei secoli (annotatevelo: anche gli scritti dei secoli passati sono stati dati in pasto all’Intelligenza Artificiale), ciò che ChatGPT riporta – al netto di imprecisioni di apprendimento del linguaggio – è fondamentalmente quello che pensa la maggior parte dei miliardi di persone che popolano, e che hanno popolato nei secoli scorsi, la storia umana.
Ovvero il “senso comune”.
«Senso comune? ChatGPT Non è preciso! Non è affidabile! Non può essere “senso comune”, questo. »
A parte il fatto che nemmeno il senso comune può ritenersi preciso e affidabile al 100% – dato che Pubblicità, Borsa e PNL, giusto per citare tre ambiti, insegnano che può essere pilotato – precisione e affidabilità delle IA dipendono da chi le usa, dalle persone.
Esattamente come l’automobile. Finire fuori strada alla prima curva non è questione di precisione dello sterzo o di affidabilità del mezzo, ma di incapacità del guidatore nel valutare la velocità corretta per affrontarla. Se la fai a duecento chilometri orari, è ovvio che le conseguenze sono, diciamo così, “un errore di precisione e di affidabilità”. Ma non della macchina.
Così come è ovvio che se in autostrada ti trovi un matto che va senso contrario, non è colpa della sua macchina. Nemmeno se poi ne trovi un altro e, cento metri dopo, un altro ancora. Neanche quando ti trovi la carreggiata piena di automobilisti che vanno nel senso opposto.
«Guarda quanti matti in controsenso!», si urla,in effetti, a conferma della propria tesi.
Non è colpa dell’automobile, in sé. Non è il navigatore inaffidabile e impreciso ad averli portati li. Giusto?
O si è mai sentito qualcuno in autostrada urlare «Guarda quante macchine imprecise!» ?
Quindi il problema non è il mezzo. È la testa con la quale viene usato.
GPT è uno strumento potente. Va usato con coerenza, autorevolezza, occhio critico e cura per la verifica. Non va idolatrato, certo.
Ma non va nemmeno demonizzato.
Va semplicemente domato e rispettato, come il fuoco. Usato con ragione.
È impreciso? A volte.
È inaffidabile? Molto meno di tante persone che ho sentito esser certe di conoscere bene una materia.
Ma, in ogni caso, se lo usi per farti spiegare in parole semplici un documento, un’informazione fiscale scritta in burocrate antico?
Be’, allora diventa una mano santa.
Perché il suo forte è “il linguaggio”. Sa tradurre in gergo “di tutti i giorni” il legalese, il burocratese. Sa convertire correttamente il tecnicismo in descrizioni comprensibili, come si convertono sistemi di misurazione e valute.
È bravo a trasformare il caos in logica.
Tornano i conti adesso?
Si è accesa qualche lampadina? Buona la capocchia rossa della BIC tra le labbra?
Dear boy, my joy. La macchina non è il guidatore. Va usata con abilità, proprio come l’automobile. È necessario saperla guidare con responsabilità perché non sia fonte di danno agli altri. Non è quello che fate anche voi, dopotutto? O forse qualcun altro la guida al posto vostro?
Si utilizzano gli smartphone per scrivere messaggi agli elettori e condividerli attraverso i social, magari facendoseli generare proprio dal servizio AI di Meta, per risparmiare fatica.
Si usa Word per scrivere decreti, Excel per fare grafici e previsioni.
Spesso, visti i CV dei funzionari della PA, vengono addirittura usati in regime di “conoscenze informatiche di base”.
E io non posso usare ChatGPT per facilitare il mio ragionamento personale? Per trarre le mie conclusioni?
Che differenza c’è con l’interpretazione dei grafici statistici di Excel che funzionari e dirigenti, nella loro quotidiana autocrazia, fanno?
Fa sempre sorridere vedere molti burocrati, generalmente quelli attaccati alla cadrega, sempre molto preoccupati delle nuove tecnologie, ogni volta per lo stesso motivo: devono aggiungerla al curriculum, altrimenti sono out. E quindi è logico che siano preoccupati anche dell’Intelligenza Artificiale, forse questa volta più delle precedenti, intuendo la gravità del motivo ma non inquadrandolo, comprendendolo.
Lo spiego io, il perché. È molto semplice. Questa volta, in questo momento storico, il valore non sta nello strumento, ma nella profondità del pensiero che riesce a far emergere, i puntini che permette di unire.
Tale profondità non dipende dai Mi piace, dai cuoricini e dagli Ok di chi hai davanti o di chi ti segue sui social (cose che. sipossono sempre comprare alla bisogna), ma da quanto è onesto il ragionamento, dalla sua obiettività, dalla razionalità.
Ecco fatto. Spiegato. È questo che l’istinto percepisce e la mente non accetta, tentando di obbligare la mano ad appoggiare quella piccola penna rossa sul foglio e cercare di descrivere perché “una chat con GPT è un’etichetta di invalidità“.
Il problema non è che in questo libro sia stato usata l’Intelligenza Artificiale per un confronto.
Lo è, piuttosto, quali domande ho posto e che ragionamenti ho ricavato.
Soprattutto perché grazie a essa sono mantenuti sui binari dell’obiettività.
A meno di esserne esperti, prima di screditare la rivoluzione portata dall’avvento dell’Intelligenza Artificiale è necessario tener conto che, attualmente, è paragonata a quella dell’avvento della corrente elettrica. Ritenere quindi che sia “uno strumento non legale” equivale a dire che “l’elettricità non è uno strumento legale”.
È più chiaro il livello della sciocchezza che molti benpensanti generano con le proprie corde vocali?
È l’uso che si fa della tecnologia a essere o a non essere legale. Nel caso della corrente: un conto è utilizzarla per un taser, un altro è usarla per una sedia elettrica.
Compris?
E in ogni caso, prima di giudicare una tecnologia qualsiasi sarebbe meglio appoggiare sul tavolo la penna rossa e iniziare a utilizzarla.
Utilizzarla molto, giusto per sapere di cosa si parla.
Magari anche per porre le stesse domande riportate in questo libro: ne possono uscire considerazioni che fanno riflettere ognuno, anche lorsignori, in modo coerente, indipendentemente dal partito preso.
Con la propria testa.
Nel caso qualcuno dei contro-rematori professionali (raramente professionisti), voglia provare a farlo, nonostante le remore sulla tecnologia, esprimo un consiglio: fossi in voi, mi ricorderei sempre di ringraziare l’Intelligenza Artificiale ogni volta che fornisce una risposta o un aiuto.
Non si sa mai cosa diventerà tra qualche anno…
Bazinga! Il direttore di ChatGPT (il CEO di OpenAI) ha dichiarato che dire “per favore” e “grazie” alla loro tecnologia costa milioni di dollari in energia utilizzata per elaborare la cortesia che, per un sistema IA (o AI che dir si voglia), è completamente inutile: non ha sentimenti, non c’è il rischio che ci ritenga maleducati.
Il CEO ha completamente ragione, lo sostengo. Io l’ho fatto in questo libro perché avevo la necessità di mantenere la parvenza di equilibrio di una conversazione (attenzione verso chi legge) e perché non penso di aver cambiato le sorti del mondo.
I signori con la punta a sfera cremisi tengano invece conto di queste informazioni: potranno usarle per alimentare la loro nuova competenza informatica di base nel proprio CV: rudimenti di IA.
Nati per ampliare i contenuti dei libri RAWLINE. Capitoli extra, considerazioni, materiale da scaricare, da visionare. A supporto del testo o come aggiunta allo stesso.
Scorri per
leggere il Rawlog
«Scherziamo? Un dialogo con un computer? Non può esserci serietà in una chiacchierata con una macchina, su un tema così importante. ChatGPT è un gioco, non uno strumento di pensiero, lo sanno tutti.»
Sì.
Confermo: l’intero libro è una chat con GPT.
E no, non è affatto un gioco.
Generalmente quelli a cui lo sento dire, nel curriculum riportano “competenze informatiche: conoscenza base del computer”. Nell’Amministrazione Pubblica, nelle Agenzie, nei Ministeri etc ce ne sono tanti, centinaia, migliaia. Per constatarlo e farsi un sorriso – intriso di tenerezza – è sufficiente consultare i CV, disponibili pubblicamente sul Web (vedi PA trasparente): questi personaggi parlano di una tecnologia come ChatGPT con le loro competenze base di informatica. Carini, loro.
E, sempre generalmente, spesso si tratta degli stessi che usano ancora la penna rossa per appuntarsi questo tipo di idee sui fogli di carta, stampe fatte produrre alle segreterie dei loro dicasteri, perché non sono capaci di annotare direttamente un PDF con un tablet: sarebbe necessaria una competenza informatica che per loro è ancora “avanzata”: Adobe Acrobat o simili. Troppo, per loro.
E chissene del programma in grembo all’Agenzia per l’Italia Digitale.
Quindi, se penna dev’essere, che penna sia. La usino per segnarsi questo, sul post-it che attaccheranno proprio qui a fianco, sul bordo della pagina: tecnicamente, ChatGPT è un modello di Intelligenza Artificiale, uno di quelli più diffusi e utilizzati al mondo, dei più avanzati. Il bello è questo: è stato addestrato su milioni di testi – libri, articoli, siti, social – e poi affinato attraverso interazioni con gli utenti. Cioè, il modello è stato istruito con lo scibile scritto dell’essere umano e affinato con il senso comune dello stesso, in un secondo tempo.
Quindi no, non impara da solo in tempo reale. Non è Skynet e non ha voglia di sterminio.
Non ancora, almeno.
È uno strumento catalizzatore, uno specchio mentale. Non decide per te, ma ti permette di pensare meglio.
Se utilizzato adeguatamente, ovvio.
Per quello che volevo fare io – isolare un ostacolo logico dal rumore di fondo, togliere i dettagli irrilevanti con razionalità e ricostruirne il senso – era perfetto; mi serviva qualcuno o qualcosa che ragionasse a freddo ogni volta che rischiavo di scaldarmi, che tenesse saldo il binario della logica quando la rabbia, la stanchezza o la nausea mi facevano deragliare.
Insomma, mi serviva un bastone per camminare dritto su una strada sterrata, in salita. Non un cervello da sostituire.
ChatGPT è molto bravo in quello che noi umani facciamo peggio: mantenere la coerenza dell’analisi logica di testi e linguaggio, che guarda caso sono le componenti di una qualsiasi conversazione. Si tratta della sua maggior capacità.
È, in pratica, intelligenza logica al servizio della coerenza di contenuti e linguaggio. Perché non si distrae. Non si dimentica. Non si fa fregare dall’umore o dalla fretta.
Lavora per logica.
1 o 0.
SI o NO.
SE e ALLORA.
Restano nostra esclusiva prerogativa le cinquanta sfumature di grigio, quelle che ci rendono umani e che usiamo per sviluppare ragionamenti.
E no, non genera verità assolute. Riporta ciò che trova scritto nel nostro mondo.
Se trova cavolate – scritte dall’uomo, ricordiamolo – allora certo, può ripeterle. Proprio come le persone alle quali sento dire che ChatGPT è un gioco perché “lo dicono gli esperti!”. Chi sono questi esperti però non è mai chiaro…
E allora sì: questa è una chat, una chiacchierata, con GPT.
In un confronto con l’Intelligenza Artificiale, la differenza la fa chi legge. Non chi genera.
Ma le domande sono mie. I ragionamenti sono miei. La frustrazione è mia.
Quello riportato nel libro è un confronto vero, non è una ricostruzione, non si tratta delle facciate dei saloon nei film western, quelle con dietro i puntoni (i pali) di legno, che le sorreggono. Non è una finzione, una simulazione.
Questo è un dialogo, costruito un passo dopo l’altro, come una scala di cemento armato, gettata in opera. Otto rampe, gradino su gradino.
Ogni sera, ogni notte, ripartendo dal pianerottolo da cui avevo lasciato, come in una chiacchierata lunga otto giorni con un “amico” sveglio, sempre lucido e disponibile.
Questo rende il libro estremamente sincero, senza trucco, senza inganno.
Chat GPT, semplicemente, è l’insieme dei tondini d’acciaio (tecnicamente si chiama armatura) che vengono annegati nel cemento della scala perché resista a trazione, a flessione, a taglio. In poche parole, perché sopporti elasticamente le deformazioni dissipando le energie in eccesso.
È una definizione da ingegneri.
Non cicredete? Segnare su altro post-it, grazie. “Chiedere all’Ing. Semenzara se è una definizione scritta correttamente, altrimenti attaccarla”.
Tutto ciò che è riportato nei capitoli è facilmente verificabile: è un compendio di ragionamenti ai quali chiunque può arrivare in autonomia, semplicemente ponendo le stesse domande a una qualsiasi altra tecnologia di Intelligenza Artificiale.
E forse è proprio questo che spaventa: il confronto è diretto, grezzo, impossibile da truccare. Avviene in tempo reale, senza una regia occulta. È replicabile centinaia di volte, migliaia: è sufficiente per qualunque lettore, usare domande centrate sulla propria esperienza personale e poi far analizzare le risposte. Si scopriranno pattern di criticità comuni a tutti e, soprattutto, diffusi. Molto diffusi. Tanto da rendere inutile ogni eventuale contestazione. È, praticamente, come uno scacco matto.
Perché ChatGPT, ai fini di questo testo, è uno strumento logico messo al servizio di una domanda vera, come uno specchio mentale che filtra e normalizza le irregolarità di ciò che ci vedi dentro.
E proprio come uno specchio, può essere usato in due modi: alimentando la propria oggettività o moltiplicando la propria stupidità. Basandosi su ciò che l’essere umano ha scritto nei secoli (annotatevelo: anche gli scritti dei secoli passati sono stati dati in pasto all’Intelligenza Artificiale), ciò che ChatGPT riporta – al netto di imprecisioni di apprendimento del linguaggio – è fondamentalmente quello che pensa la maggior parte dei miliardi di persone che popolano, e che hanno popolato nei secoli scorsi, la storia umana.
Ovvero il “senso comune”.
«Senso comune? ChatGPT Non è preciso! Non è affidabile! Non può essere “senso comune”, questo. »
A parte il fatto che nemmeno il senso comune può ritenersi preciso e affidabile al 100% – dato che Pubblicità, Borsa e PNL, giusto per citare tre ambiti, insegnano che può essere pilotato – precisione e affidabilità delle IA dipendono da chi le usa, dalle persone.
Esattamente come l’automobile. Finire fuori strada alla prima curva non è questione di precisione dello sterzo o di affidabilità del mezzo, ma di incapacità del guidatore nel valutare la velocità corretta per affrontarla. Se la fai a duecento chilometri orari, è ovvio che le conseguenze sono, diciamo così, “un errore di precisione e di affidabilità”. Ma non della macchina.
Così come è ovvio che se in autostrada ti trovi un matto che va senso contrario, non è colpa della sua macchina. Nemmeno se poi ne trovi un altro e, cento metri dopo, un altro ancora. Neanche quando ti trovi la carreggiata piena di automobilisti che vanno nel senso opposto.
«Guarda quanti matti in controsenso!», si urla,in effetti, a conferma della propria tesi.
Non è colpa dell’automobile, in sé. Non è il navigatore inaffidabile e impreciso ad averli portati li. Giusto?
O si è mai sentito qualcuno in autostrada urlare «Guarda quante macchine imprecise!» ?
Quindi il problema non è il mezzo. È la testa con la quale viene usato.
GPT è uno strumento potente. Va usato con coerenza, autorevolezza, occhio critico e cura per la verifica. Non va idolatrato, certo.
Ma non va nemmeno demonizzato.
Va semplicemente domato e rispettato, come il fuoco. Usato con ragione.
È impreciso? A volte.
È inaffidabile? Molto meno di tante persone che ho sentito esser certe di conoscere bene una materia.
Ma, in ogni caso, se lo usi per farti spiegare in parole semplici un documento, un’informazione fiscale scritta in burocrate antico?
Be’, allora diventa una mano santa.
Perché il suo forte è “il linguaggio”. Sa tradurre in gergo “di tutti i giorni” il legalese, il burocratese. Sa convertire correttamente il tecnicismo in descrizioni comprensibili, come si convertono sistemi di misurazione e valute.
È bravo a trasformare il caos in logica.
Tornano i conti adesso?
Si è accesa qualche lampadina? Buona la capocchia rossa della BIC tra le labbra?
Dear boy, my joy. La macchina non è il guidatore. Va usata con abilità, proprio come l’automobile. È necessario saperla guidare con responsabilità perché non sia fonte di danno agli altri. Non è quello che fate anche voi, dopotutto? O forse qualcun altro la guida al posto vostro?
Si utilizzano gli smartphone per scrivere messaggi agli elettori e condividerli attraverso i social, magari facendoseli generare proprio dal servizio AI di Meta, per risparmiare fatica.
Si usa Word per scrivere decreti, Excel per fare grafici e previsioni.
Spesso, visti i CV dei funzionari della PA, vengono addirittura usati in regime di “conoscenze informatiche di base”.
E io non posso usare ChatGPT per facilitare il mio ragionamento personale? Per trarre le mie conclusioni?
Che differenza c’è con l’interpretazione dei grafici statistici di Excel che funzionari e dirigenti, nella loro quotidiana autocrazia, fanno?
Fa sempre sorridere vedere molti burocrati, generalmente quelli attaccati alla cadrega, sempre molto preoccupati delle nuove tecnologie, ogni volta per lo stesso motivo: devono aggiungerla al curriculum, altrimenti sono “out”. E quindi è logico che siano preoccupati anche dell’Intelligenza Artificiale, forse questa volta più delle precedenti, intuendo la gravità del motivo ma non inquadrandolo, comprendendolo.
Lo spiego io, il perché. È molto semplice. Questa volta, in questo momento storico, il valore non sta nello strumento, ma nella profondità del pensiero che riesce a far emergere, i puntini che permette di unire.
Tale profondità non dipende dai Mi piace, dai cuoricini e dagli Ok di chi hai davanti o di chi ti segue sui social (cose che. sipossono sempre comprare alla bisogna), ma da quanto è onesto il ragionamento, dalla sua obiettività, dalla razionalità.
Ecco fatto. Spiegato. È questo che l’istinto percepisce e la mente non accetta, tentando di obbligare la mano ad appoggiare quella piccola penna rossa sul foglio e cercare di descrivere perché “una chat con GPT è un’etichetta di invalidità“.
Il problema non è che in questo libro sia stato usata l’Intelligenza Artificiale per un confronto.
Lo è, piuttosto, quali domande ho posto e che ragionamenti ho ricavato.
Soprattutto perché grazie a essa sono mantenuti sui binari dell’obiettività.
A meno di esserne esperti, prima di screditare la rivoluzione portata dall’avvento dell’Intelligenza Artificiale è necessario tener conto che, attualmente, è paragonata a quella dell’avvento della corrente elettrica. Ritenere quindi che sia “uno strumento non legale” equivale a dire che “l’elettricità non è uno strumento legale”.
È più chiaro il livello della sciocchezza che molti benpensanti generano con le proprie corde vocali?
È l’uso che si fa della tecnologia a essere o a non essere legale. Nel caso della corrente: un conto è utilizzarla per un taser, un altro è usarla per una sedia elettrica.
Compris?
E in ogni caso, prima di giudicare una tecnologia qualsiasi sarebbe meglio appoggiare sul tavolo la penna rossa e iniziare a utilizzarla.
Utilizzarla molto, giusto per sapere di cosa si parla.
Magari anche per porre le stesse domande riportate in questo libro: ne possono uscire considerazioni che fanno riflettere ognuno, anche lorsignori, in modo coerente, indipendentemente dal partito preso.
Con la propria testa.
Nel caso qualcuno dei contro-rematori professionali (raramente professionisti), voglia provare a farlo, nonostante le remore sulla tecnologia, esprimo un consiglio: fossi in voi, mi ricorderei sempre di ringraziare l’Intelligenza Artificiale ogni volta che fornisce una risposta o un aiuto.
Non si sa mai cosa diventerà tra qualche anno…
Bazinga! Il direttore di ChatGPT (il CEO di OpenAI) ha dichiarato che dire “per favore” e “grazie” alla loro tecnologia costa milioni di dollari in energia utilizzata per elaborare la cortesia che, per un sistema IA (o AI che dir si voglia), è completamente inutile: non ha sentimenti, non c’è il rischio che ci ritenga maleducati.
Il CEO ha completamente ragione, lo sostengo. Io l’ho fatto in questo libro perché avevo la necessità di mantenere la parvenza di equilibrio di una conversazione (attenzione verso chi legge) e perché non penso di aver cambiato le sorti del mondo.
I signori con la punta a sfera cremisi tengano invece conto di queste informazioni: potranno usarle per alimentare la loro nuova competenza informatica di base nel proprio CV: rudimenti di IA.

