← Torna ai documenti

AI 2027 è una supercazzola

youtube Elaborato Creato il 2025-10-25
Modifica

Metadati

Hash
64c051be74dda187...
Data Pubblicazione
20250805
Lingua
it
Ultimo Aggiornamento
2025-10-26 07:56

Sintesi Breve

Riassunto generato da Gemini (max 200 parole)

Il testo analizza il blog post "AI 2027" e le dinamiche interne a OpenAI, evidenziando la tensione tra i dipartimenti Application (commercializzazione) e Safety (sicurezza dell'IA). Si discute la vittoria della commercializzazione e il rischio di scenari "doomer" legati al controllo dell'IA. L'autore sottolinea che nel breve termine, il problema principale non è la singolarità, ma l'accentramento del potere e il controllo dell'infrastruttura da parte delle Big Tech, che possono sfruttare l'IA per influenzare, fare propaganda e alimentare la difesa. Infine, si critica la visione semplicistica dell'automazione come mera cancellazione di posti di lavoro, evidenziando invece la trasformazione delle attività all'interno dei mestieri.

Trascrizione Estesa

Testo rielaborato e formattato da Gemini

È diventato virale AI 2027, un blog post di un ex dipendente di OpenAI che ora fa podcast, sostenendo che l'intelligenza artificiale prenderà il sopravvento entro due anni, con un finale piuttosto tetro. Vorrei raccontare il contesto di questa persona e della sua esperienza in OpenAI. All'interno di OpenAI, c'erano due dipartimenti formali: Application e Safety. Sotto Application c'erano Altman, Brockman e gran parte dei finanziatori, in particolare Microsoft, che spingevano per questo reparto, responsabile della commercializzazione dei prodotti di OpenAI. L'altro reparto, Safety, era più legato alla ricerca accademica, con figure come Sutskever e Amodei, focalizzato sul rendere l'intelligenza artificiale sicura per prevenire ribellioni. Le tensioni nascevano dal fatto che Safety rallentava la commercializzazione a favore di più ricerca per la sicurezza dell'IA. Questo filone di ricercatori è legato all'approccio "Doomer", con scenari di singolarità e dominio dell'IA. La parte Application, con Altman, era più interessata a capitalizzare e rendere OpenAI il prossimo monopolio tech. Come si è visto, in OpenAI ha vinto Application, soprattutto dopo il breve allontanamento e rientro di Altman. Anche Dario Amodei, fautore del reparto Safety e poi fondatore di Anthropic, ha dovuto adattarsi alla logica commerciale. Il mondo dei ricercatori è legato alle idee e a scenari di science fiction, ma il mondo reale è diverso. Oltre alla vittoria della commercializzazione, gli scenari di controllo dell'IA potrebbero diventare rilevanti con la crescente delega di attività all'IA, che ci rende dipendenti. Al momento, questa delega è frammentata e l'IA promette più di quanto risolva. Nel breve termine, il problema principale è l'infrastruttura: chi possiede l'infrastruttura per l'IA, raccoglie dati, spende energia e costruisce i data center? Si stanno costruendo data center che consumano l'energia di intere città. Ci sono poi aspetti di regolamentazione, con AI Act europei, americani e cinesi, ancora fumosi. La tecnologia è potente ma frammentata. A breve termine, è più importante preoccuparsi di risorse, infrastruttura, regolamentazione e accentramento di potere. Le Big Tech, con la loro capacità di acquisire talento, costruire infrastrutture e controllare le risorse, possono fare cose peggiori di quelle fatte con il cloud. Si tratta di persone che usano macchine per accentrare potere, influenzare, fare propaganda e alimentare la difesa. Infine, l'automazione non va vista come cancellazione di lavori, ma come cambiamento delle attività all'interno dei mestieri, riducendo il numero di persone necessarie. Non finirà il mondo tra due anni, ma il problema è l'accentramento del potere e il controllo dell'infrastruttura.

Testo Estratto (Cache)

Testo grezzo estratto dalla sorgente

è andato virale AI 2027, che è questo blog post di questo ex Open AI che adesso gira per il mondo facendo podcast e dicendo come nell'arco di 2 anni l'intelligenza artificiale prenderà il sopravvento e con un finale che non vi spoilero perché è interessante da leggere, finale parecchio tetro. Vorrei raccontarvi quello che c'è nel contesto di questo signore e di quello che ha vissuto in Open AI. All'interno di OPNI c'erano proprio due dipartimenti formali a un certo punto, uno chiamato Application e l'altro chiamato safety. Sotto Application c'era Altman, Brockman e gran parte di finanziatori, in particolare Microsoft, che spingevano per questo reparto di application, che è quello che deve doveva e tutt'ora commercializza quello che viene creato in Open AI. E poi c'era l'altro reparto che era quello di safety, che è un po' più legato alla ricerca accademica e in cui erano molto attivi Sutver che poi se n'è andato, Amodeei che poi se n'è andato, è più legato alla ricerca accademica e particolarmente focalizzati sul rendere l'intelligenza artificiale sicura per fare in modo che non si ribelli. Le tensioni nascono dal fatto che la parte di safety ha sempre rallentato la commercializzazione in favore di più ricerca, più espedienti per arginare, per rendere sicure le intelligenze artificiali. E questo filone di ricercatori soprattutto è molto legato all'approccio Doomer, cioè l'intelligenza artificiale prende il sopravvento, c'è una curva esponenziale, singolarità, moriremo tutti. che è un po' quello il il punto a cui vanno. Mentre la parte di application Altman e compagnia cantante è molto più interessata a capitalizzare, a fare soldi e a rendere OpenI il prossimo monopolio tech in ambito intelligenza artificiale. Come avete potuto notare dagli ultimi tempi, in Openai ha vinto Application, soprattutto dopo che Altman, dopo essere stato cacciato, dopo pochi giorni è rientrato e e anche il quelli principali fautori del reparto safety come Dario Amodei che poi si è sganciato Aperta Antropic, comunque adesso soggetto a grandi finanziamenti, ha dovuto imparare come funziona il mondo e va in giro alle conferenze a sparare le stesse cazzate commerciali che spara pure Altman. Quindi in realtà follow money e si capisce tutto quello che succede. Va detto che il mondo dei ricercatori, io vengo da quel mondo, quindi non sto accusando nessuno. Il problema che abbiamo è che siamo troppo legati alle idee, troppo legati a questi scenari un po' di science fiction, ma il mondo funziona molto diversamente da così e oltre ad aver vinto la commercializzazione dell'intelligenze artificiale piuttosto che la sicurezza e l'allineamento che sono comunque cose tenute molto in disparte rispetto alla commercializzazione, tutti questi scenari in cui l'intelligenza artificiale prende il controllo potrebbero essere rilevanti nel momento in cui gran parte delle nostre attività sono delegate all'intelligenza artificiale e questa delega ci rende dipendenti sempre di più dall'intelligenza artificiale. Non ne possiamo più fare a meno e a quel punto forse si può cominciare a immaginare uno scenario in cui l'intelligenza artificiale prende il controllo. Al momento questa delega all'intelligenza artificiale non c'è perché è ancora troppo frammentata e ancora promette molto di più di quella che è riuscita a risolvere in termini di problemi quotidiani delle persone e lì ci arriveremo perché è una tecnologia potentissima. Fatto sta che nel breve termine quello che si manca di parlare, quello che si manca di dire in questo contesto è che sì, a lungo termine magari arriviamo a quel punto, ma a breve termine dove stanno i cetrioli? stanno nella infrastruttura. Chi è il proprietario dell'infrastruttura per far girare intelligenze artificiali? Chi è che raccoglie dati, spende energia, costruisce i data center e ha la chiave per i data center? Vi ricordo che in tutto il mondo si stanno costruendo data center che consumano tanta energia quanto quella che serve per alimentare città intere. È proprio un cambiamento infrastrutturale di cui si parla pochissimo e di cui è difficile capire gli ordini di grandezza. una roba enorme. Poi ci sono aspetti di regolamentazione, è tutto ancora da vedere, ci sono i vari AI act europeo, c'è quello americano, c'è anche quello cinese, sono tutte cosa cose ancora molto fumose. Ripeto, la tecnologia è potentissima, ma ancora frammentata e non ci siamo ancora misurati veramente con l'intelligenza artificiale. A breve termine è molto più rilevante preoccuparsi di risorse, infrastruttura, regolamentazione appunto e accentramento di potere. Le Big Tech con la loro potenza di fuoco, con la loro capacità di acquisire, coltivare talento, costruire infrastrutture e mettere un cancello di fronte a queste risorse, possono fare cose ben peggiori di quelle che sono state fatte col cloud, con l'intelligenza artificiale, che è comunque un ramo del cloud e in ogni caso si tratta di persone che usano macchine per accentrare potere, influenzare, fare propaganda, alimentare anche le attività della difesa, quello non ce lo scordiamo, si parla di intelligenza artificiale e difesa come se fossero due cose separate. E per finire il tema del displacement del lavoro, l'automazione molti la inquadrano come quanti lavori verranno cancellati. È una scemenza. L'automazione va inquadrata in termini di tasca all'interno dei mestieri che spariscono, cioè è difficile che automatizzi l'avvocato, l'ingegnere o chissà chi, però l'automazione, l'intelligenza artificiale copre parte delle attività che queste persone fanno nei loro mestieri cambiando i mestieri e quindi magari riducendo il numero di persone che servono per fare qualcosa, ma non è il mestiere in sé che se ne va, cambia. Quindi ragazzi, occhio a farvi prendere per i fondelli. Non finirà il mondo tra 2 anni, come dice questo tizio che sta fumato come non si sa che. Il problema è questo qua.

Rigenera Contenuti

Rielabora i contenuti con Gemini

Nota: La rigenerazione richiederà alcuni secondi e sovrascriverà i contenuti esistenti.