Fermate le sperimentazioni sulle IA

Versione Completa   Stampa   Cerca   Utenti   Iscriviti     Condividi : FacebookTwitter
Halo 8
00mercoledì 29 marzo 2023 17:32
Just In: Elon Musk, Yoshua Bengio, Steve Wozniak, Yuval Harari, Andrew Yng, Emad Mostaque, and other AI leaders sign open letter to 'Pause Giant AI Experiments'

"immediately pause for at least 6 months the training of AI systems more powerful than GPT-4 ... This pause should be public and verifiable"


Ho pensato di aprirlo qui anziché nel thread in sezione VG perché penso possa essere un argomento di discussione molto interessante (e perché se ne parla Harari vale la pena di dargli almeno una letta)

Che ne pensate? [SM=g5608793]
KaiserSp
00mercoledì 29 marzo 2023 17:39
temono la nascita di Skynet?

ok, si fermano sei mesi... e poi? che si fa?

tra sei mesi riprendiamo lo sviluppo delle IA? lo cancelliamo definitivamente ed arrestiamo il progresso tecnologico perchè siamo già arrivati a Skynet?

come minimo dovrebbero esplicitare il motivo di tale richiesta e poi spiegare come trattare l'argomento da ora in poi
Halo 8
00mercoledì 29 marzo 2023 17:42
A number of well-known AI researchers — and Elon Musk — have signed an open letter calling on AI labs around the world to pause development of large-scale AI systems, citing fears over the “profound risks to society and humanity” they claim this software poses.

The letter, published by the nonprofit Future of Life Institute, notes that AI labs are currently locked in an “out-of-control race” to develop and deploy machine learning systems “that no one — not even their creators — can understand, predict, or reliably control.”

“Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4,” says the letter. “This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.”

Signatories include author Yuval Noah Harari, Apple co-founder Steve Wozniak, Skype co-founder Jaan Tallinn, politician Andrew Yang, and a number of well-known AI researchers and CEOs, including Stuart Russell, Yoshua Bengio, Gary Marcus, and Emad Mostaque. The full list of signatories can be seen here, though new names should be treated with caution as there are reports of names being added to the list as a joke (e.g. OpenAI CEO Sam Altman, an individual who is partly responsible for the current race dynamic in AI).

The letter is unlikely to have any effect on the current climate in AI research, which has seen tech companies like Google and Microsoft rush to deploy new products, often sidelining previously-avowed concerns over safety and ethics. But it is a sign of the growing opposition to this “ship it now and fix it later” approach; an opposition that could potentially make its way into the political domain for consideration by actual legislators.

As noted in the letter, even OpenAI itself has expressed the potential need for “independent review” of future AI systems to ensure they meet safety standards. The signatories say that this time has now come.

“AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts,” they write. “These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.”

KaiserSp
00mercoledì 29 marzo 2023 17:46
per quanto teoricamente si possano capire le loro preoccupazioni, mi pare però solo una mossa per tenere lo sviluppo tecnologico sotto il controllo di una "oligarchia illuminata"

per ora siamo a questo punto
www.tomshw.it/scienze/magnetron-il-microonde-con-ia-che-ha-tentato-di-uccidere-il-suo-c...
Halo 8
00giovedì 30 marzo 2023 09:32
arxiv.org/pdf/2303.10130.pdf

Giusto di un paio di giorni fa, la stima è che circa 300 milioni di posti di lavoro verranno sostituiti dall'utilizzo di intelligenze artificiali, l'AI "will alter nearly 80% of all jobs. Half of the roles that require a college degree will be affected."

caroto
00giovedì 30 marzo 2023 09:46
Se è vero che il mondo che deve adattarsi ai cambiamenti e non aver paura di evolversi (altrimenti avremmo ancora le candele e l'abaco negli uffici), è anche vero che qui non si parla solo di implicazioni di "abitudini" e di problemi di "apertura mentale".

La velocità con la quale sta avvenendo tutto è talmente differente rispetto alle leggi degli stati, alle regolamentazioni, alla cultura e tessuto sociale e lavorativo, alle scuole (che insegnano lavori che tra 5 anni saranno già vecchi) che anche secondo me bisogna fermarsi.



Mi immagino lo stato italiano che deve fare leggi di tutela e limitazione dell'AI, cambiare programmi scolastici, creare in poco tempo corsi di aggiornamento per gli attuali lavoratori (o di riqualificazione), il tutto in brevissimo tempo (considerando i nostri tempi, non certamente in 6 mesi).

Arriva ad esserci GPT-328 ora che tutti gli over-60 in parlamento, senato, ministeri lo mettano anche semplicemente nell'ordine del giorno, o a capire lontanamente cosa sia.





caroto
00giovedì 30 marzo 2023 09:57
Può il ruolo di un professore essere svolto da un'intelligenza artificiale? Può una diatriba legale essere risolta da una macchina? Sono domande che non riguardano più un futuro fantascientifico, così ben raccontato da certa letteratura o cinematografia. Secondo quanto rivelato da uno studio guidato dalla Princeton University, infatti, ci sono ben venti professioni che al momento sono interamente condotte da esseri umani e che potrebbero invece essere soppiantate da algoritmi molto sofisticati. Nella ricerca intitolata «In che modo i language modeler come ChatGPT influenzeranno le occupazioni e le industrie?» condotta da Ed Felten di Princeton, Manav Raj dell'Università della Pennsylvania e Robert Seamans della New York University, sono risultate a rischio "estinzione" professioni insospettabili e per lo più umanistiche, quindi legate non a un mondo matematico e bidimensionale, fatto di codici e di sequenze, ma a quello del pensiero, multidimensionale, dove l'elemento umano è da sempre ritenuto essenziale. «Si vedrà che le principali occupazioni esposte alla modellazione linguistica includono operatori di telemarketing e una varietà di insegnanti post-secondari come lingua e letteratura inglese, lingua e letteratura straniera e insegnanti di storia si legge nell'introduzione della ricerca - Troviamo che i principali settori esposti ai progressi nella modellazione linguistica sono i servizi legali e gli investimenti». «Le conseguenze dell'intelligenza artificiale sul mondo del lavoro avranno tante sfaccettature. In alcuni casi, l'AI potrà sostituire il lavoro precedentemente svolto dall'essere umano, in altri invece potrà essere complementare», si legge nello studio. La ricerca è stata condotta incrociando dieci applicazioni di intelligenza artificiale tra cui per esempio giochi di strategia, videogiochi in tempo reale, riconoscimento facciale, lettura, comprensione di un testo e traduzione - con 52 abilità umane, per valutare eventuali legami.

I RISULTATI
Il risultato ha quindi mostrato una lista di professioni che potrebbero essere sostituite dall'intelligenza artificiale. Tra queste ci sono gli insegnanti di lingua e letteratura, di storia, di legge e perfino di religione e filosofia. Anche quelli di scienze politiche o di sociologia rischiano in futuro, così come quelli di psicologia. E poi ancora i giudici e gli avvocati, ma anche gli psicologi, i consulenti clinici e i mediatori. In cima alla lista ci sono invece gli operatori di telemarketing, una mansione che tuttavia è già spesso affidata alla tecnologia attraverso i cosiddetti chatbot o assistenti virtuali. Spotify e Mastercard sono solo alcune delle aziende che usano questi sistemi da tempo per gestire al meglio le richieste di supporto dai loro clienti. A stupire, invece, è la presenza in questo gruppo di ruoli legati all'educazione che, si legge nello studio, saranno maggiormente colpiti rispetto ad altri lavori, proprio grazie all'incredibile evoluzione tecnologica nel language modeling.


Si parla inoltre di numerosi lavori in ambito finanziario (amministrazione aziende inteso come ragioneria, buste paghe, conteggi, calcoli, previsioni di vendita, commercialisti, brokeraggio) e addirittura politico (fargli calcolare tutti gli andamenti e risvolti in caso di certe situazioni o decisioni, o addirittura prenderle al posto di un umano) e medici (non chirurghi).

-Voices-
00giovedì 30 marzo 2023 15:36
Penso sia un futuro molto positivo che alcuni cercheranno di fermare per mantenere i propri privilegi.

Se anziché Barbero che parla di argomenti non suoi, tipo la II WW, avessimo un insegnante/divulgatore avatar deepfake, anche di Barbero stesso, che ha la possibilità di attingere ad un IA studiata per imparare argomenti storici supervisionata da alcuni esperti dei vari temi, quindi tipo Barbero per la storia medievale o quel che ha davvero studiato, le cose non sarebbero meglio?

Magari con anche la possibilità di esprimere parimenti visioni del mondo diverse (metti che gli esperti cinesi hanno una visione di un evento, gli esperti americani un'altra, quelli europei un'altra ancora) senza inserire i propri bias umani, sarebbe il meglio.


Se ne parlava a pranzo con un ricercatore del dipartimento che si occupa di reti neurali, IA e cervello e anche lui, come immagino le persone citate sopra, più che i lavori da sostituire (ma nei prossimi decenni tra transizione ecologica e IA rimarrà ben poco), si interrogava sui metodi con i quali alleni le IA e i limiti legali delle stesse (banalmente: l'IA ha il 95% di successo nelle diagnosi di tumore al polmone, l'umano il 90%, ma se l'IA sbaglia non sapendo bene come è arrivata a quel risultato, chi si assume la colpa dell'errore?). Se l'IA la alleni usando twitter ti diventa comunista/nazista in tempo zero, se la alleni sfruttando gli esperti magari no (o magari sì?)
caroto
00giovedì 30 marzo 2023 17:02
Re:
-Voices-, 30/03/2023 15:36:

Penso sia un futuro molto positivo che alcuni cercheranno di fermare per mantenere i propri privilegi.

Se anziché Barbero che parla di argomenti non suoi, tipo la II WW, avessimo un insegnante/divulgatore avatar deepfake, anche di Barbero stesso, che ha la possibilità di attingere ad un IA studiata per imparare argomenti storici supervisionata da alcuni esperti dei vari temi, quindi tipo Barbero per la storia medievale o quel che ha davvero studiato, le cose non sarebbero meglio?

Magari con anche la possibilità di esprimere parimenti visioni del mondo diverse (metti che gli esperti cinesi hanno una visione di un evento, gli esperti americani un'altra, quelli europei un'altra ancora) senza inserire i propri bias umani, sarebbe il meglio.


Se ne parlava a pranzo con un ricercatore del dipartimento che si occupa di reti neurali, IA e cervello e anche lui, come immagino le persone citate sopra, più che i lavori da sostituire (ma nei prossimi decenni tra transizione ecologica e IA rimarrà ben poco), si interrogava sui metodi con i quali alleni le IA e i limiti legali delle stesse (banalmente: l'IA ha il 95% di successo nelle diagnosi di tumore al polmone, l'umano il 90%, ma se l'IA sbaglia non sapendo bene come è arrivata a quel risultato, chi si assume la colpa dell'errore?). Se l'IA la alleni usando twitter ti diventa comunista/nazista in tempo zero, se la alleni sfruttando gli esperti magari no (o magari sì?)




Penso sia per questo che è necessario fermarsi per un periodo.
Non per sottrarsi al cambiamento ma per incanalarlo sulla giusta strada.

Banalmente ogni insegnante di storia ha una visione e un'interpretazione di essa, è naturale, anche solo nel modo di parlare, nel decidere il programma, nel dedicare più o meno tempo a una cosa. Con l'AI come fai? Se decide che il nazismo non è da trattare con gravità(cosa a caso eh), oppure di citare Andreotti come il più grande statista negli ultimi 40anni senza citare tutti i suoi lati oscuri? Il plus di un insegnante è anche andare oltre i libri di testo e magari far presente cose che i libri di testo non possono dire. Standardizzi tutte le lezioni di storia in italia? O magari utilizzi l'AI al posto dei libri di testo e per approfondire live argomenti e tematiche che l'insegnante o gli studenti richiedono? E l'insegnante si evolve in alleato dell'AI invece che alternativo, quindi insegnante+AI e non solo "uno o l'altro"?

Mentre magari un insegnante di lingue non serve perchè l'AI può personalizzare per ogni studente l'insegnamento e risulta più efficace. Può essere? Oppure il lato umano aiuta l'apprendimento di una lingua (domanda a caso)?

Un medico può essere parzialmente sostituito, ma magari non totalmente e magari anche lui può usare l'AI come aiuto e non essere alternativo ad essa.

Non essendo frenata dal "giusto o sbagliato" come potrà compotarsi in futuro quando avrà accesso ad internet e i social? imparerà da loro e quindi dalla merda o le informazioni che riceverà (in questo momento l'AI viaggia a statistica, quindi una notizia vale l'altra se è statisticamente rilevante, che sia eticamente giusta o sbagliata, vera o falsa) saranno magari classificate come meno importanti? oppure sarà in grado di riconoscere le fake news confutandole e quindi di "non ascoltarle e divulgarle"?



Però mettersi li per ogni situazione e decidere dove indirizzare l'AI e come sarà il rapporto con una categoria di persone richiede tempo, e l'AI sta correndo troppo, per questo è giusto rallentarla, per imparare e capire come poterla sfruttare al meglio.





KaiserSp
00giovedì 30 marzo 2023 17:37
Re: Re:
caroto, 30/03/2023 17:02:


Però mettersi li per ogni situazione e decidere dove indirizzare l'AI e come sarà il rapporto con una categoria di persone richiede tempo, e l'AI sta correndo troppo, per questo è giusto rallentarla, per imparare e capire come poterla sfruttare al meglio.


non sono d'accordo

"lo sviluppo dell'AI" è una cosa che riguarda il campo tecnologico, che ha regole rigide

"lo sfruttamento dell'AI" è una cosa dove interviene anche l'etica, dove le sfumature sono molto più presenti e variano a seconda del periodo storico

sono ambiti che, per quanto collegati, viaggiano però su binari paralleli e quindi possono procedere entrambi, seppur con tempi e modi diversi

con le dovute proporzioni, mi pare di rileggere le stesse discussioni che all'epoca si facevano per la clonazione umana ed ancor prima per il nucleare
Angle 4ever
00venerdì 31 marzo 2023 18:17
Il garante della privacy blocca ChatGPT. Tra questo, farina di insetti e carne "sintetica" ci mostriamo sempre all'avanguardia ed aperti alle innovazioni
Halo 8
00venerdì 31 marzo 2023 20:38
Re:
Angle 4ever, 31/03/2023 18:17:

Il garante della privacy blocca ChatGPT. Tra questo, farina di insetti e carne "sintetica" ci mostriamo sempre all'avanguardia ed aperti alle innovazioni



Sto paese comunque bisogna lasciarlo al più presto

Io l'idea di andarmene fra 3/4 anni non vorrei avercela, però dio cane me la rendono veramente un obiettivo da perseguire
84lestat
00venerdì 31 marzo 2023 21:24
Re: Re:
Halo 8 (Halo24), 31/03/2023 20:38:



Sto paese comunque bisogna lasciarlo al più presto

Io l'idea di andarmene fra 3/4 anni non vorrei avercela, però dio cane me la rendono veramente un obiettivo da perseguire

Idem.
caroto
00sabato 1 aprile 2023 18:51
Era prevedibile uno stop dopo l’importante bug che ha mostrato molti dati sensibili.

Non la trovo una cosa politica. Stavolta.
Halo 8
00sabato 1 aprile 2023 19:02
Ma per carità
Bo_Duke
00sabato 1 aprile 2023 20:18
Angle 4ever, 31/03/2023 18:17:

Il garante della privacy blocca ChatGPT. Tra questo, farina di insetti e carne "sintetica" ci mostriamo sempre all'avanguardia ed aperti alle innovazioni

La prossima è multare chi usa termini inglesi.
-Voices-
00sabato 1 aprile 2023 21:50
E gli anglismi, così Mad è contento. E tutto per nascondere i casini del pnrr che nessun politico ha idea di come risolvere.
Questa è la versione 'lo-fi' del Forum Per visualizzare la versione completa clicca qui
Tutti gli orari sono GMT+01:00. Adesso sono le 07:48.
Copyright © 2000-2024 FFZ srl - www.freeforumzone.com