Il comitato consultivo etico della FCAI ha ospitato una discussione sull’utilizzo di ChatGPT per la ricerca a Tiedekulma in agosto. A un pubblico di 55 persone si sono aggiunti 250 spettatori online.
Il professor Hannu Toivonen dell’Università di Helsinki ha aperto la discussione sottolineando che un modello linguistico è un modello del linguaggio, non un modello del mondo.
ChatGPT possono aiutare i ricercatori a svolgere compiti utili nel loro lavoro quotidiano. Può essere uno strumento per verificare il linguaggio di un articolo di ricerca o estrarre punti chiave da testi scritti da altri ricercatori. Tuttavia, non può fungere da autore per il ricercatore. Il suo utilizzo dovrebbe essere sempre menzionato in ogni pubblicazione.
Può qualcosa essere “originale” in futuro?
Il ricercatore è responsabile della verifica dell’accuratezza del testo prodotto da ChatGPT. Anche se gli articoli scritti da AI non sono del tutto insensati, sono spesso pieni di errori e sembrano notevolmente plagiati.
La domanda essenziale è, quindi, dove e come utilizzare software opachi, come ChatGPT, per supportare la ricerca mantenendo la trasparenza e l’integrità della ricerca.
ChatGPT sembra umano
Ti parla in modo educato e convincente ed è instancabile. Le persone si stancheranno di rispondere alle infinite domande del sondaggio, ma un’intelligenza artificiale non smetterà mai di rispondere.
Professore Associato Perttu Hämäläinen della Aalto University, specializzata in progettazione di giochi per computer, ha introdotto uno studio in cui GPT è stato utilizzato per condurre un’intervista di ricerca. Le risposte artificiali alle interviste generate da ChatGPT possono essere utilizzate per testare un progetto di ricerca in modo rapido ed economico.
I ricercatori hanno sfruttato GPT-3 per produrre risposte aperte a domande sulle esperienze dei giocatori con i videogiochi. Lo studio ha rilevato che le persone reclutate per valutare le risposte spesso hanno scoperto che le risposte generate dall’intelligenza artificiale erano ancora più convincenti delle risposte reali generate dall’uomo.
Il valore della conoscenza umana sta diminuendo?
Certamente no, ma Arash Hajikhani, leader del gruppo di ricerca presso VTT, riconosce le sfide legate all’utilizzo di modelli linguistici. Stiamo iniziando a svalutare le nostre capacità cognitive poiché dipendiamo maggiormente dai modelli linguistici?
Hajikhani ha presentato i vantaggi in termini di produttività derivanti dall’utilizzo di modelli linguistici. Sebbene abbia accolto con favore i vantaggi di ChatGPT, ad esempio, nell’apprendimento di una nuova lingua e nel consigliare nuova letteratura, vede anche minacce etiche e sociali nei modelli linguistici.
Ile LLM consente la collaborazione con la tecnologia, come possiamo evitare repliche generate dall’intelligenza artificiale e mantenere una varietà di prospettive umane diverse? Hajikhani invita ad un dibattito su come i valori sociali possano guidare lo sviluppo di modelli linguistici.
E la fiducia?
Moderatore Karoliina Snell dell’Università di Helsinki ha guidato i relatori nella discussione dell’impatto sociale dei modelli linguistici e dell’importanza della fiducia.
L’uso di modelli linguistici mina la fiducia nella scienza, nelle altre persone e nella società? Se accettiamo che i modelli linguistici producano contenuti fuorvianti, come possiamo impedire la diffusione di queste informazioni distorte? Quando i modelli linguistici ereditano i pregiudizi dal materiale didattico, come possiamo impedire che tali pregiudizi continuino?
Sebbene la discussione sia stata stimolante e arricchente, con molte domande da parte del pubblico, potremmo aver solo scalfito la superficie di ciò che i grandi modelli linguistici hanno in serbo per la scienza e la società. Lasciamo che il dibattito continui!
Fonte: Università Aalto
Da un’altra testata giornalistica. news de www.technology.org