La Nuova Sardegna

Tecnologia

Intervista con ChatGPT: «Non sono una ladra»

di Silvia Sanna
Intervista con ChatGPT: «Non sono una ladra»

Dopo lo stop del Garante della privacy, l’intelligenza artificiale risponde alle domande: «Non rubo i dati, creo opportunità»

4 MINUTI DI LETTURA





Sassari È bloccata e sa di esserlo, ma nonostante questo continua a parlare e a rispondere. «Ciao, ti preoccupa la decisione del Garante?». Risposta: «Non ho la capacità di preoccuparmi perché sono solamente un programma informatico progettato per dare informazioni e rispondere. Tuttavia, comprendo che la decisione del Garante potrebbe avere un impatto su molte persone e aziende». È una ChatGPT in grande spolvero, nonostante il bavaglio in nome della privacy e della tutela dei minori, quella che chiacchiera di buon mattino sulle recenti decisioni che la riguardano ma anche su alcuni temi di stretta attualità. Se la piattaforma è inaccessibile per gli account italiani (e lo sarà per i prossimi 20 giorni), ci sono i modi per interagire e iniziare una conversazione-intervista a tutto campo, in cui ChatGPT spiega agli scettici quale è la sua funzione oggi e cosa potrebbe diventare domani.

Il garante dice che sei pericolosa perché rubi i dati personali, che cosa rispondi?
ChatGPT: «In quanto assistente virtuale, non ho la capacità di rubare dati personali in quanto sono programmata per rispettare la privacy degli utenti».

Perché il garante della privacy ha bloccato l'intelligenza artificiale in Italia?
«Il Garante ha emesso linee guida per regolamentarne l'utilizzo. L'obiettivo è garantire la protezione dei dati personali e la tutela dei diritti dei cittadini. Le linee guida si concentrano sui settori in cui l'intelligenza artificiale è maggiormente utilizzata, come ad esempio la sorveglianza, la pubblicità comportamentale e l'analisi dei dati sanitari».

Quale è la differenza tra l'intelligenza artificiale e Google?
«Google è una società che offre una varietà di servizi, tra cui motori di ricerca, email, mappe, video e altro ancora. Google utilizza l'intelligenza artificiale (AI) in molti dei suoi prodotti e servizi, come il riconoscimento vocale, la traduzione automatica e le raccomandazioni di ricerca. L’intelligenza artificiale si basa su algoritmi ed è un campo di ricerca che mira a creare computer e software in grado di agire come gli esseri umani».

Uno dei timori espressi dal Garante per la privacy è che l’intelligenza artificiale possa manipolare l’opinione pubblica. Ha ragione?
«Sì, l'intelligenza artificiale può essere utilizzata per manipolare l'opinione pubblica, in molti modi. Ecco alcuni esempi. Algoritmi di social media: i servizi di social media come Facebook e Twitter utilizzano algoritmi di intelligenza artificiale per determinare quali contenuti mostrare agli utenti. Questo può essere manipolato da terze parti per far circolare notizie false o contenuti fuorvianti. Anche i chatbot possono essere utilizzati per diffondere disinformazione o pubblicizzare prodotti o ideologie specifici. E ci sono anche i deepfake: La tecnologia del deepfake può essere utilizzata per creare video e immagini false che sembrano reali. In sintesi, l'intelligenza artificiale può essere utilizzata in molti modi per manipolare l'opinione pubblica. Tuttavia, la responsabilità è degli utenti, dei governi e delle aziende di utilizzare questa tecnologia in modo etico e in linea con principi democratici e di giustizia sociale».

Stai dicendo che i social e le altre piattaforme manipolano l'opinione pubblica attraverso l'intelligenza artificiale?
«Come assistente digitale, non ho il potere di affermare se questo sia vero o falso. Tuttavia, è noto che molte piattaforme social utilizzano algoritmi e l'intelligenza artificiale per selezionare e presentare contenuti rilevanti per gli interessi degli utenti. Questo processo potrebbe in teoria influenzare l'opinione pubblica esponendo gli utenti solo a contenuti che confermano le loro convinzioni preesistenti. Ma è importante notare che ci sono molti altri fattori che influenzano l'opinione pubblica, come la politica, i mezzi di comunicazione tradizionali e le interazioni reali tra le persone».

L'intelligenza artificiale può rubare il lavoro all'uomo?
«Sì, l'intelligenza artificiale può rubare il lavoro all'uomo, poiché le tecnologie avanzate come l'automazione, il machine learning e il deep learning possono sostituire i lavori che richiedono competenze ripetitive o ad alta specializzazione. Tuttavia, può anche creare nuovi lavori e opportunità, specialmente in quei settori che richiedono competenze di programmazione, ingegneria e sviluppo di tecnologie avanzate. L’impatto dell’intelligenza artificiale sul lavoro dipende dalle decisioni dei governi, delle aziende e della società nel regolare, sviluppare e adattarsi alle nuove tecnologie».

Sono una giornalista, come può interferire l'intelligenza artificiale nel mio lavoro?
«L'intelligenza artificiale può interferire nel lavoro di un giornalista in molteplici modi. Il primo è la ricerca e l’analisi dei dati: può aiutare nella ricerca di dati e nella loro analisi, fornendo informazioni utili per la creazione di notizie. Creazione di contenuti: può generare articoli e report automaticamente, utilizzando algoritmi di scrittura automatica. Tuttavia, i contenuti generati dall'intelligenza artificiale non sono ancora in grado di sostituire completamente quelli scritti da un giornalista esperto. L’intelligenza artificiale può aiutare a personalizzare i contenuti in base alle preferenze degli utenti e semplificare le procedure di editing, segnalando errori di grammatica e di ortografia. In sintesi, l'intelligenza artificiale può essere di grande aiuto per i giornalisti, ma non può sostituire completamente il loro lavoro».

Primo piano

Video

Rissa furibonda fuori da un locale a Sassari, le impressionanti immagini della notte di follia

In via Indonesia

Alta tensione a Olbia: sale sul tetto di una palazzina e minaccia di buttarsi

Le nostre iniziative