***Annunci del Mega Forum***
Vuoi sapere tutto sul MegaForum? Vai sulla MegaPedia, l'enciclopedia ufficiale del MF!
Non riesci a postare? Clicca qui e consulta le nostre linee guida.
Nuova Discussione
Rispondi
 
Pagina precedente | 1 2 | Pagina successiva

Fermate le sperimentazioni sulle IA

Ultimo Aggiornamento: 01/04/2023 21:50
Autore
Stampa | Notifica email    
OFFLINE
Email Scheda Utente
Post: 26.259
Post: 24.537
Registrato il: 13/04/2011
Città: TORINO
Età: 33
Sesso: Maschile
29/03/2023 17:32
 
Quota

Just In: Elon Musk, Yoshua Bengio, Steve Wozniak, Yuval Harari, Andrew Yng, Emad Mostaque, and other AI leaders sign open letter to 'Pause Giant AI Experiments'

"immediately pause for at least 6 months the training of AI systems more powerful than GPT-4 ... This pause should be public and verifiable"


Ho pensato di aprirlo qui anziché nel thread in sezione VG perché penso possa essere un argomento di discussione molto interessante (e perché se ne parla Harari vale la pena di dargli almeno una letta)

Che ne pensate? [SM=g5608793]
OFFLINE
Email Scheda Utente
Post: 10.432
Post: 5.600
Registrato il: 20/04/2011
Sesso: Maschile
29/03/2023 17:39
 
Quota

temono la nascita di Skynet?

ok, si fermano sei mesi... e poi? che si fa?

tra sei mesi riprendiamo lo sviluppo delle IA? lo cancelliamo definitivamente ed arrestiamo il progresso tecnologico perchè siamo già arrivati a Skynet?

come minimo dovrebbero esplicitare il motivo di tale richiesta e poi spiegare come trattare l'argomento da ora in poi
[Modificato da KaiserSp 29/03/2023 17:43]
OFFLINE
Email Scheda Utente
Post: 26.259
Post: 24.537
Registrato il: 13/04/2011
Città: TORINO
Età: 33
Sesso: Maschile
29/03/2023 17:42
 
Quota

A number of well-known AI researchers — and Elon Musk — have signed an open letter calling on AI labs around the world to pause development of large-scale AI systems, citing fears over the “profound risks to society and humanity” they claim this software poses.

The letter, published by the nonprofit Future of Life Institute, notes that AI labs are currently locked in an “out-of-control race” to develop and deploy machine learning systems “that no one — not even their creators — can understand, predict, or reliably control.”

“Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4,” says the letter. “This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.”

Signatories include author Yuval Noah Harari, Apple co-founder Steve Wozniak, Skype co-founder Jaan Tallinn, politician Andrew Yang, and a number of well-known AI researchers and CEOs, including Stuart Russell, Yoshua Bengio, Gary Marcus, and Emad Mostaque. The full list of signatories can be seen here, though new names should be treated with caution as there are reports of names being added to the list as a joke (e.g. OpenAI CEO Sam Altman, an individual who is partly responsible for the current race dynamic in AI).

The letter is unlikely to have any effect on the current climate in AI research, which has seen tech companies like Google and Microsoft rush to deploy new products, often sidelining previously-avowed concerns over safety and ethics. But it is a sign of the growing opposition to this “ship it now and fix it later” approach; an opposition that could potentially make its way into the political domain for consideration by actual legislators.

As noted in the letter, even OpenAI itself has expressed the potential need for “independent review” of future AI systems to ensure they meet safety standards. The signatories say that this time has now come.

“AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts,” they write. “These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.”

OFFLINE
Email Scheda Utente
Post: 10.433
Post: 5.601
Registrato il: 20/04/2011
Sesso: Maschile
29/03/2023 17:46
 
Quota

per quanto teoricamente si possano capire le loro preoccupazioni, mi pare però solo una mossa per tenere lo sviluppo tecnologico sotto il controllo di una "oligarchia illuminata"

per ora siamo a questo punto
www.tomshw.it/scienze/magnetron-il-microonde-con-ia-che-ha-tentato-di-uccidere-il-suo-c...
OFFLINE
Email Scheda Utente
Post: 26.260
Post: 24.538
Registrato il: 13/04/2011
Città: TORINO
Età: 33
Sesso: Maschile
30/03/2023 09:32
 
Quota

arxiv.org/pdf/2303.10130.pdf

Giusto di un paio di giorni fa, la stima è che circa 300 milioni di posti di lavoro verranno sostituiti dall'utilizzo di intelligenze artificiali, l'AI "will alter nearly 80% of all jobs. Half of the roles that require a college degree will be affected."

OFFLINE
Email Scheda Utente
Post: 33.311
Post: 20.032
Registrato il: 13/04/2011
Sesso: Maschile
eheh
DOPPIO GIOLLI
30/03/2023 09:46
 
Quota

Se è vero che il mondo che deve adattarsi ai cambiamenti e non aver paura di evolversi (altrimenti avremmo ancora le candele e l'abaco negli uffici), è anche vero che qui non si parla solo di implicazioni di "abitudini" e di problemi di "apertura mentale".

La velocità con la quale sta avvenendo tutto è talmente differente rispetto alle leggi degli stati, alle regolamentazioni, alla cultura e tessuto sociale e lavorativo, alle scuole (che insegnano lavori che tra 5 anni saranno già vecchi) che anche secondo me bisogna fermarsi.



Mi immagino lo stato italiano che deve fare leggi di tutela e limitazione dell'AI, cambiare programmi scolastici, creare in poco tempo corsi di aggiornamento per gli attuali lavoratori (o di riqualificazione), il tutto in brevissimo tempo (considerando i nostri tempi, non certamente in 6 mesi).

Arriva ad esserci GPT-328 ora che tutti gli over-60 in parlamento, senato, ministeri lo mettano anche semplicemente nell'ordine del giorno, o a capire lontanamente cosa sia.





[Modificato da caroto 30/03/2023 09:51]
OFFLINE
Email Scheda Utente
Post: 33.312
Post: 20.033
Registrato il: 13/04/2011
Sesso: Maschile
eheh
DOPPIO GIOLLI
30/03/2023 09:57
 
Quota

Può il ruolo di un professore essere svolto da un'intelligenza artificiale? Può una diatriba legale essere risolta da una macchina? Sono domande che non riguardano più un futuro fantascientifico, così ben raccontato da certa letteratura o cinematografia. Secondo quanto rivelato da uno studio guidato dalla Princeton University, infatti, ci sono ben venti professioni che al momento sono interamente condotte da esseri umani e che potrebbero invece essere soppiantate da algoritmi molto sofisticati. Nella ricerca intitolata «In che modo i language modeler come ChatGPT influenzeranno le occupazioni e le industrie?» condotta da Ed Felten di Princeton, Manav Raj dell'Università della Pennsylvania e Robert Seamans della New York University, sono risultate a rischio "estinzione" professioni insospettabili e per lo più umanistiche, quindi legate non a un mondo matematico e bidimensionale, fatto di codici e di sequenze, ma a quello del pensiero, multidimensionale, dove l'elemento umano è da sempre ritenuto essenziale. «Si vedrà che le principali occupazioni esposte alla modellazione linguistica includono operatori di telemarketing e una varietà di insegnanti post-secondari come lingua e letteratura inglese, lingua e letteratura straniera e insegnanti di storia si legge nell'introduzione della ricerca - Troviamo che i principali settori esposti ai progressi nella modellazione linguistica sono i servizi legali e gli investimenti». «Le conseguenze dell'intelligenza artificiale sul mondo del lavoro avranno tante sfaccettature. In alcuni casi, l'AI potrà sostituire il lavoro precedentemente svolto dall'essere umano, in altri invece potrà essere complementare», si legge nello studio. La ricerca è stata condotta incrociando dieci applicazioni di intelligenza artificiale tra cui per esempio giochi di strategia, videogiochi in tempo reale, riconoscimento facciale, lettura, comprensione di un testo e traduzione - con 52 abilità umane, per valutare eventuali legami.

I RISULTATI
Il risultato ha quindi mostrato una lista di professioni che potrebbero essere sostituite dall'intelligenza artificiale. Tra queste ci sono gli insegnanti di lingua e letteratura, di storia, di legge e perfino di religione e filosofia. Anche quelli di scienze politiche o di sociologia rischiano in futuro, così come quelli di psicologia. E poi ancora i giudici e gli avvocati, ma anche gli psicologi, i consulenti clinici e i mediatori. In cima alla lista ci sono invece gli operatori di telemarketing, una mansione che tuttavia è già spesso affidata alla tecnologia attraverso i cosiddetti chatbot o assistenti virtuali. Spotify e Mastercard sono solo alcune delle aziende che usano questi sistemi da tempo per gestire al meglio le richieste di supporto dai loro clienti. A stupire, invece, è la presenza in questo gruppo di ruoli legati all'educazione che, si legge nello studio, saranno maggiormente colpiti rispetto ad altri lavori, proprio grazie all'incredibile evoluzione tecnologica nel language modeling.


Si parla inoltre di numerosi lavori in ambito finanziario (amministrazione aziende inteso come ragioneria, buste paghe, conteggi, calcoli, previsioni di vendita, commercialisti, brokeraggio) e addirittura politico (fargli calcolare tutti gli andamenti e risvolti in caso di certe situazioni o decisioni, o addirittura prenderle al posto di un umano) e medici (non chirurghi).

[Modificato da caroto 30/03/2023 10:02]
OFFLINE
Email Scheda Utente
Post: 41.421
Post: 41.421
Registrato il: 20/05/2013
Età: 31
Sesso: Maschile
30/03/2023 15:36
 
Quota

Penso sia un futuro molto positivo che alcuni cercheranno di fermare per mantenere i propri privilegi.

Se anziché Barbero che parla di argomenti non suoi, tipo la II WW, avessimo un insegnante/divulgatore avatar deepfake, anche di Barbero stesso, che ha la possibilità di attingere ad un IA studiata per imparare argomenti storici supervisionata da alcuni esperti dei vari temi, quindi tipo Barbero per la storia medievale o quel che ha davvero studiato, le cose non sarebbero meglio?

Magari con anche la possibilità di esprimere parimenti visioni del mondo diverse (metti che gli esperti cinesi hanno una visione di un evento, gli esperti americani un'altra, quelli europei un'altra ancora) senza inserire i propri bias umani, sarebbe il meglio.


Se ne parlava a pranzo con un ricercatore del dipartimento che si occupa di reti neurali, IA e cervello e anche lui, come immagino le persone citate sopra, più che i lavori da sostituire (ma nei prossimi decenni tra transizione ecologica e IA rimarrà ben poco), si interrogava sui metodi con i quali alleni le IA e i limiti legali delle stesse (banalmente: l'IA ha il 95% di successo nelle diagnosi di tumore al polmone, l'umano il 90%, ma se l'IA sbaglia non sapendo bene come è arrivata a quel risultato, chi si assume la colpa dell'errore?). Se l'IA la alleni usando twitter ti diventa comunista/nazista in tempo zero, se la alleni sfruttando gli esperti magari no (o magari sì?)
OFFLINE
Email Scheda Utente
Post: 33.318
Post: 20.039
Registrato il: 13/04/2011
Sesso: Maschile
eheh
DOPPIO GIOLLI
30/03/2023 17:02
 
Quota

Re:
-Voices-, 30/03/2023 15:36:

Penso sia un futuro molto positivo che alcuni cercheranno di fermare per mantenere i propri privilegi.

Se anziché Barbero che parla di argomenti non suoi, tipo la II WW, avessimo un insegnante/divulgatore avatar deepfake, anche di Barbero stesso, che ha la possibilità di attingere ad un IA studiata per imparare argomenti storici supervisionata da alcuni esperti dei vari temi, quindi tipo Barbero per la storia medievale o quel che ha davvero studiato, le cose non sarebbero meglio?

Magari con anche la possibilità di esprimere parimenti visioni del mondo diverse (metti che gli esperti cinesi hanno una visione di un evento, gli esperti americani un'altra, quelli europei un'altra ancora) senza inserire i propri bias umani, sarebbe il meglio.


Se ne parlava a pranzo con un ricercatore del dipartimento che si occupa di reti neurali, IA e cervello e anche lui, come immagino le persone citate sopra, più che i lavori da sostituire (ma nei prossimi decenni tra transizione ecologica e IA rimarrà ben poco), si interrogava sui metodi con i quali alleni le IA e i limiti legali delle stesse (banalmente: l'IA ha il 95% di successo nelle diagnosi di tumore al polmone, l'umano il 90%, ma se l'IA sbaglia non sapendo bene come è arrivata a quel risultato, chi si assume la colpa dell'errore?). Se l'IA la alleni usando twitter ti diventa comunista/nazista in tempo zero, se la alleni sfruttando gli esperti magari no (o magari sì?)




Penso sia per questo che è necessario fermarsi per un periodo.
Non per sottrarsi al cambiamento ma per incanalarlo sulla giusta strada.

Banalmente ogni insegnante di storia ha una visione e un'interpretazione di essa, è naturale, anche solo nel modo di parlare, nel decidere il programma, nel dedicare più o meno tempo a una cosa. Con l'AI come fai? Se decide che il nazismo non è da trattare con gravità(cosa a caso eh), oppure di citare Andreotti come il più grande statista negli ultimi 40anni senza citare tutti i suoi lati oscuri? Il plus di un insegnante è anche andare oltre i libri di testo e magari far presente cose che i libri di testo non possono dire. Standardizzi tutte le lezioni di storia in italia? O magari utilizzi l'AI al posto dei libri di testo e per approfondire live argomenti e tematiche che l'insegnante o gli studenti richiedono? E l'insegnante si evolve in alleato dell'AI invece che alternativo, quindi insegnante+AI e non solo "uno o l'altro"?

Mentre magari un insegnante di lingue non serve perchè l'AI può personalizzare per ogni studente l'insegnamento e risulta più efficace. Può essere? Oppure il lato umano aiuta l'apprendimento di una lingua (domanda a caso)?

Un medico può essere parzialmente sostituito, ma magari non totalmente e magari anche lui può usare l'AI come aiuto e non essere alternativo ad essa.

Non essendo frenata dal "giusto o sbagliato" come potrà compotarsi in futuro quando avrà accesso ad internet e i social? imparerà da loro e quindi dalla merda o le informazioni che riceverà (in questo momento l'AI viaggia a statistica, quindi una notizia vale l'altra se è statisticamente rilevante, che sia eticamente giusta o sbagliata, vera o falsa) saranno magari classificate come meno importanti? oppure sarà in grado di riconoscere le fake news confutandole e quindi di "non ascoltarle e divulgarle"?



Però mettersi li per ogni situazione e decidere dove indirizzare l'AI e come sarà il rapporto con una categoria di persone richiede tempo, e l'AI sta correndo troppo, per questo è giusto rallentarla, per imparare e capire come poterla sfruttare al meglio.





[Modificato da caroto 30/03/2023 17:07]
OFFLINE
Email Scheda Utente
Post: 10.436
Post: 5.604
Registrato il: 20/04/2011
Sesso: Maschile
30/03/2023 17:37
 
Quota

Re: Re:
caroto, 30/03/2023 17:02:


Però mettersi li per ogni situazione e decidere dove indirizzare l'AI e come sarà il rapporto con una categoria di persone richiede tempo, e l'AI sta correndo troppo, per questo è giusto rallentarla, per imparare e capire come poterla sfruttare al meglio.


non sono d'accordo

"lo sviluppo dell'AI" è una cosa che riguarda il campo tecnologico, che ha regole rigide

"lo sfruttamento dell'AI" è una cosa dove interviene anche l'etica, dove le sfumature sono molto più presenti e variano a seconda del periodo storico

sono ambiti che, per quanto collegati, viaggiano però su binari paralleli e quindi possono procedere entrambi, seppur con tempi e modi diversi

con le dovute proporzioni, mi pare di rileggere le stesse discussioni che all'epoca si facevano per la clonazione umana ed ancor prima per il nucleare
OFFLINE
Email Scheda Utente
Post: 24.169
Post: 13.541
Registrato il: 13/04/2011
Città: REGGIO EMILIA
Età: 33
Sesso: Maschile
Montenegro è sinonimo di qualità e vittoria.
31/03/2023 18:17
 
Quota

Il garante della privacy blocca ChatGPT. Tra questo, farina di insetti e carne "sintetica" ci mostriamo sempre all'avanguardia ed aperti alle innovazioni
[Modificato da Angle 4ever 31/03/2023 18:17]
OFFLINE
Email Scheda Utente
Post: 26.262
Post: 24.540
Registrato il: 13/04/2011
Città: TORINO
Età: 33
Sesso: Maschile
31/03/2023 20:38
 
Quota

Re:
Angle 4ever, 31/03/2023 18:17:

Il garante della privacy blocca ChatGPT. Tra questo, farina di insetti e carne "sintetica" ci mostriamo sempre all'avanguardia ed aperti alle innovazioni



Sto paese comunque bisogna lasciarlo al più presto

Io l'idea di andarmene fra 3/4 anni non vorrei avercela, però dio cane me la rendono veramente un obiettivo da perseguire
OFFLINE
Email Scheda Utente
Post: 36.249
Post: 12.057
Registrato il: 14/04/2011
Città: SALERNO
Età: 40
Sesso: Maschile
Occupazione: Project Manager
31/03/2023 21:24
 
Quota

Re: Re:
Halo 8 (Halo24), 31/03/2023 20:38:



Sto paese comunque bisogna lasciarlo al più presto

Io l'idea di andarmene fra 3/4 anni non vorrei avercela, però dio cane me la rendono veramente un obiettivo da perseguire

Idem.
OFFLINE
Email Scheda Utente
Post: 33.322
Post: 20.043
Registrato il: 13/04/2011
Sesso: Maschile
eheh
DOPPIO GIOLLI
01/04/2023 18:51
 
Quota

Era prevedibile uno stop dopo l’importante bug che ha mostrato molti dati sensibili.

Non la trovo una cosa politica. Stavolta.
OFFLINE
Email Scheda Utente
Post: 26.263
Post: 24.541
Registrato il: 13/04/2011
Città: TORINO
Età: 33
Sesso: Maschile
01/04/2023 19:02
 
Quota

Ma per carità
Amministra Discussione: | Chiudi | Sposta | Cancella | Modifica | Notifica email Pagina precedente | 1 2 | Pagina successiva
Nuova Discussione
Rispondi
Cerca nel forum
Tag discussione
Discussioni Simili   [vedi tutte]
Aubrey Destremps (2 messaggi, agg.: 21/04/2017 17:38)

Feed | Forum | Utenti | Cerca | Login | Registrati | Amministra
Crea forum gratis, gestisci la tua comunità! Iscriviti a FreeForumZone
FreeForumZone [v.6.1] - Leggendo la pagina si accettano regolamento e privacy
Tutti gli orari sono GMT+01:00. Adesso sono le 19:51. Versione: Stampabile | Mobile
Copyright © 2000-2024 FFZ srl - www.freeforumzone.com