Un numero crescente di lavoratori negli Stati Uniti lo è girando A ChatGPT per assistenza con attività di base, anche se le preoccupazioni hanno spinto aziende come Microsoft e Google a limitarne l’utilizzo.
Le aziende di tutto il mondo sono alle prese con come sfruttare in modo efficace le capacità di ChatGPT, un programma di chatbot alimentato dall’intelligenza artificiale generativa che si impegna in conversazioni con gli utenti e risponde a varie richieste. Tuttavia, le società di sicurezza e le società hanno espresso preoccupazione in merito potenziali fughe di proprietà intellettuale e informazioni strategiche.
Sono emerse istanze di persone che utilizzano ChatGPT per aiutare nel loro lavoro quotidiano, comprese attività come la composizione di e-mail, il riepilogo di documenti e la conduzione di ricerche iniziali.
Il sondaggio online sull’intelligenza artificiale (AI), condotto da Reuters e Ipsos tra l’11 e il 17 luglio, ha rivelato che il 28% degli intervistati utilizza regolarmente ChatGPT nel proprio lavoro, mentre solo il 22% ha riferito che i propri datori di lavoro hanno autorizzato ufficialmente l’uso di tali strumenti esterni .
L’intervallo di credibilità per il sondaggio, che ha raccolto il contributo di 2.625 adulti negli Stati Uniti, era di circa 2 punti percentuali.
Circa il 10% degli intervistati ha indicato che i propri superiori vietavano esplicitamente l’uso di strumenti di intelligenza artificiale esterni, mentre circa il 25% era incerto sulla posizione della propria azienda sull’utilizzo della tecnologia.
È importante notare che i revisori umani di diverse aziende possono esaminare le conversazioni generate. I ricercatori hanno anche scoperto che simili Modelli di intelligenza artificiale può riprodurre i dati assimilati durante l’addestramento, aumentando la possibilità che le informazioni proprietarie siano a rischio.
“Le persone non capiscono come vengono utilizzati i dati quando utilizzano i servizi di intelligenza artificiale generativa. Per le aziende questo è fondamentale, perché gli utenti non hanno un contratto con molte IA, perché sono un servizio gratuito, quindi le aziende non dovranno correre il rischio attraverso il loro consueto processo di valutazione “, ha commentato Ben King, vicepresidente della fiducia dei clienti presso società di sicurezza aziendale Okta.
OpenAI ha recentemente assicurato ai suoi partner aziendali che i loro dati non sarebbero stati utilizzati per addestrare ulteriormente il chatbot a meno che non fosse stata concessa un’autorizzazione esplicita.
Bardo di Google raccoglie dati tra cui testo, posizione e altre informazioni sull’utilizzo quando è in funzione. Google consente agli utenti di eliminare attività precedenti dai propri account e richiedere la rimozione dei contenuti forniti all’IA. Google di proprietà di Alphabet ha rifiutato di elaborare quando gli sono stati richiesti ulteriori dettagli.
Un dipendente anonimo con sede negli Stati Uniti, associato all’app di incontri Tinder, ha affermato che i colleghi hanno utilizzato ChatGPT per “compiti innocui”, come la composizione di e-mail, nonostante la mancanza di approvazione ufficiale da parte dell’azienda.
Il dipendente ha condiviso che lo strumento è stato utilizzato per attività di routine come la creazione di inviti di calendario divertenti per eventi di squadra e la creazione di e-mail di addio per le persone in partenza. Inoltre, è stato utilizzato per scopi di ricerca generale.
Sebbene Tinder abbia una regola non ufficiale “nessuna regola ChatGPT”, i dipendenti l’hanno comunque utilizzata in un modo che non ha divulgato la loro affiliazione con l’azienda.
A maggio, Samsung Electronics ha implementato un divieto globale sull’uso di ChatGPT e strumenti di intelligenza artificiale simili da parte del suo personale. Questa decisione è arrivata dopo la scoperta che un dipendente aveva caricato un codice sensibile sulla piattaforma.
Samsung ha rilasciato una dichiarazione il 3 agosto, indicando che stava valutando misure per stabilire un ambiente sicuro per l’utilizzo dell’IA generativa che migliora la produttività e l’efficienza. Nel frattempo, ha limitato temporaneamente l’uso dell’IA generativa attraverso i dispositivi aziendali.
Alphabet ha messo in guardia i propri dipendenti sull’utilizzo di chatbot, incluso Bard di Google, promuovendo contemporaneamente il programma su scala globale. Google ha affermato che sebbene Bard possa fornire suggerimenti di codice indesiderati, aiuta i programmatori. L’azienda ha anche sottolineato il suo impegno per la trasparenza riguardo ai limiti della sua tecnologia.
Un portavoce di Coca-Cola ad Atlanta, in Georgia, ha dichiarato che la società ha avviato dei test per esplorare come l’intelligenza artificiale può migliorare l’efficienza operativa. Il portavoce ha sottolineato che i dati rimangono all’interno del firewall dell’azienda. Una versione aziendale di Coca-Cola ChatGPT è stata recentemente lanciata internamente per rafforzare la produttività. Coca-Cola intende sfruttare l’intelligenza artificiale per amplificare l’efficacia e la produttività dei suoi team.
Al contrario, alcuni dipendenti dichiarano di non avere alcun accesso alla piattaforma sui loro computer aziendali. Ad esempio, ChatGPT è completamente bandito dalla rete dell’ufficio di Procter & Gamble (P&G), rendendolo inutilizzabile.
Gli esperti riconoscono che le aziende hanno validi motivi per esercitare cautela. Sebbene i vantaggi di una maggiore capacità siano diffusi, le preoccupazioni sulla sicurezza delle informazioni sono valide. La riservatezza dei dati potrebbe essere compromessa, in particolare a causa di “suggerimenti dannosi” che potrebbero costringere i chatbot AI a divulgare informazioni sensibili.
Scritto da Vytautas Valinskas
Da un’altra testata giornalistica. news de www.technology.org