this post was submitted on 01 Apr 2024
3 points (80.0% liked)

Intelligenza Artificiale

353 readers
1 users here now

L'intelligenza artificiale è una delle rivoluzioni digitali più dirompenti degli ultimi anni. Questa è la comunità in cui parlarne.

Regole

👉 Il rispetto reciproco è fondamentale per creare un luogo di confronto sereno e piacevole.

👉 No fake news, pubblicità, link di affiliazione e paywall.

👉 Nessuna forma di discriminazione sarà tollerata.

👉 In aggiunta a queste regole, agite sempre in concordanza con la guida all’utilizzo di Feddit.

founded 1 year ago
MODERATORS
 

È già finita l’era dell’intelligenza artificiale open source?

Le aziende vogliono lavorare su modelli addestrati da altri per sviluppare soluzioni chiuse, un po' perché non vogliono che gli oligopolisti si impadroniscano dei propri dati privati, un po' per ragioni di profitto. Ma nessuna azienda ha addestrato i propri modelli su dati prodotti internamente.

(grazie a @noccioletta per la segnalazione)

@aitech

https://www.internazionale.it/notizie/alberto-puliafito/2024/03/31/intelligenza-artificiale-open-source

all 8 comments
sorted by: hot top controversial new old
[–] [email protected] 2 points 7 months ago

@informapirata @noccioletta @aitech Per addestrare ChatGPT è stato utilizzato un numero di GPU dell’ordine di 10^4 (https://towardsdatascience.com/how-25-000-computers-trained-chatgpt-11104686a24d?gi=c14a164238da#:~:text=Lambda%20Labs%20estimated%20that%20training,in%20a%20matter%20of%20days). Le GPU utilizzate sono le NVIDIA A100 dal costo di circa 10^4$ ciascuna. La dimensione del dataset per la fase di training va da 1 a 100 terabyte.

Per addestrare un algoritmo di AI generativa che possa competere con quelli creati dalle Big Tech quindi servirebbe:

✓ una spesa dell’ordine di 10^8$ (100 milioni di dollari), solo per avere la “materia prima”;
✓ un dataset omnicomprensivo di dimensioni comprese tra 1 e 100 terabyte;
✓un algoritmo con numero di parametri dell’ordine di 10^11 (GPT-3.5) o 10^12 (GPT-4).

Temo quindi che le AI generative opensource fatte in casa siano irrealizzabili. Più semplicemente si usano le API di OpenAI o simili per interfacciarle graficamente e spacciarle come innovazione.
Il fine tuning invece, cioè riadattare un modello pre-esistente per scopi diversi e specifici, è più praticabile e con costi sostenibili.

[–] [email protected] 1 points 7 months ago (1 children)
[–] [email protected] 1 points 7 months ago (1 children)

@informapirata grazie della segnalazione. Mi sembra un'opinione basata su un precontratto sul significato di Open Source applicato alle IA che non è allineato con le bozze della definizione. Conosci il giornalista? Ci vorrei parlare
@aitech

[–] [email protected] 1 points 7 months ago (1 children)

@ed ah... pensavo che avendo citato una tua intervista avesse anche parlato con te! 😅

Comunque non conosco Puliafito, ma è il direttore di Slow News ed è su LinkedIn e Twitter

@aitech

[–] [email protected] 1 points 7 months ago

@informapirata non ci ho parlato , ha citato un commento da un'intervista a Pascale di Euro News, ripresa da Yahoo news. Lo cerco su LinkedIn, grazie @aitech

[–] [email protected] 1 points 7 months ago

@informapirata @noccioletta @aitech

Sì, per il funzionamento di queste AI generative di immagini o testi o video occorrono modelli di dati su cui addestrare gli algoritmi, altrimenti queste AI non generano un tubo. Un limite è dato anche dalla potenza dell'hardware delle cpu e soprattutto delle gpu. La tendenza, probabilmente, sarà poi quella di sfruttare l'hw dell'utente nel calcolo distribuito se si vorrà mantenere una Ai open source condivisa.

https://stable-diffusion-art.com/models/

[–] [email protected] 1 points 7 months ago

@informapirata @noccioletta @aitech intelligenza artificiale e il bussisnes del presente fa gola a tutti