Intelligenza Artificiale

355 readers
2 users here now

L'intelligenza artificiale è una delle rivoluzioni digitali più dirompenti degli ultimi anni. Questa è la comunità in cui parlarne.

Regole

👉 Il rispetto reciproco è fondamentale per creare un luogo di confronto sereno e piacevole.

👉 No fake news, pubblicità, link di affiliazione e paywall.

👉 Nessuna forma di discriminazione sarà tollerata.

👉 In aggiunta a queste regole, agite sempre in concordanza con la guida all’utilizzo di Feddit.

founded 1 year ago
MODERATORS
51
 
 

Le dimissioni di Breton potrebbero segnare un nuovo capitolo per la politica digitale dell’UE

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Le dimissioni, avvenute lunedì (16 settembre), dell’ex Commissario per il Mercato interno Thierry Breton, noto per essere l’architetto

52
53
 
 

In Corea del Sud Dejaview, un sistema di intelligenza artificiale, promette di rivoluzionare la prevenzione del crimine. 

#Dejaview valuta una miriade di fattori (dall’ora del giorno alla posizione geografica, dai precedenti criminali alle condizioni ambientali) per calcolare la probabilità che si verifichi un crimine.
Un interessante articolo di Gianluca Riccio su Futuro Prossimo https://www.futuroprossimo.it/2024/09/prevenzione-del-crimine-2-0-dejaview-anticipa-i-criminali/
@aitech

54
3
submitted 2 months ago* (last edited 2 months ago) by [email protected] to c/[email protected]
55
 
 

Il garante per la privacy irlandese indaga sul trattamento dei dati da parte di Google per l’addestramento dell’IA

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
La Commissione irlandese per la protezione dei dati (DPC) ha avviato un’indagine

56
 
 

Il premier slovacco Fico respinge le accuse sull’acquisto di Pegasus, ma solleva dei dubbi

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Il Primo Ministro slovacco Robert Fico ha negato le accuse che il suo governo abbia acquistato il famigerato spyware Pegasus, ma un esperto

57
 
 

La tecnologia al centro del rapporto di Mario Draghi

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
La tecnologia è stata al centro dell’attesissimo rapporto di Mario Draghi sulla competitività europea, pubblicato lunedì (9 settembre). Si prevede che la relazione influirà in modo significativo sul nuovo

58
 
 

"Se il giornalismo sta andando in fumo, potrei anche sballarmi con i suoi fumi": confessioni di un aiutante di chatbot

Giornalisti e altri scrittori sono impiegati per migliorare la qualità delle risposte dei chatbot. L'ironia di lavorare per un settore che potrebbe rendere il loro mestiere ridondante non è sfuggita a loro

@aitech

Grazie a @rresoli per la segnalazione

https://www.theguardian.com/technology/article/2024/sep/07/if-journalism-is-going-up-in-smoke-i-might-as-well-get-high-off-the-fumes-confessions-of-a-chatbot-helper

59
 
 

Al Consiglio d'Europa #CoE nasce il primo trattato sull'intelligenza artificiale.
Von der Leyen: "Legge Ue diventa globale".
Ue, Usa e Regno Unito tra i primi firmatari della Convenzione quadro sull'intelligenza artificiale e i diritti umani, la democrazia e lo stato di diritto. La segretaria generale Pejčinović Burić: "Concepita per garantire che l'ascesa dell' #AI sostenga i nostri standard, anziché minarli"
Eunews
https://www.eunews.it/2024/09/05/europa-trattato-intelligenza-artificiale/
@aitech

60
 
 

La polemica sul capo consulente scientifico della Commissione europea in materia di IA

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
La notizia che la Commissione europea stia cercando un capo consulente scientifico per l’Intelligenza Artificiale (IA) è stata accolta questa

61
 
 

Il caso del garante della privacy irlandese contro #X è stato archiviato. Il procedimento giudiziario si è ufficialmente concluso il 4 settembre, dopo che la società ha accettato di interrompere definitivamente il trattamento di alcuni dati personali raccolti nell’ #UE per l’addestramento della sua intelligenza artificiale #Grok #ai https://euractiv.it/section/capitali/news/il-caso-del-garante-della-privacy-irlandese-contro-x-e-stato-archiviato/
@aitech

62
 
 

#AI In #California, un disegno di legge impone l'etichettatura dei contenuti generati dall'intelligenza artificiale. Foto, video e clip audio devono includere filigrane nei metadati. Le grandi piattaforme online devono etichettare in modo visibile tali contenuti per gli utenti. In #UE #Meta si era già impegnata prima delle elezioni europee a rivedere ed etichettare i contenuti generati dall’intelligenza artificiale.
@aitech

63
 
 

#Grok il nuovo generatore di immagini di #X disponibile in una nuova versione da metà agosto, ha almeno il 35% di probabilità in più rispetto ai concorrenti di produrre immagini fuorvianti o false, per assenza di misure di sicurezza.
Elon Musk, lo ha definito “l’ #AI più divertente del mondo”.
@aitech
Su https://www.newsguardtech.com/it/special-reports/il-nuovo-generatore-di-immagini-di-grok-puo-essere-un-diffusore-di-misinformazione/

64
 
 

Questa settimana in AI: l'AI sta rapidamente diventando una commodity

Sia Google che OpenAI hanno tagliato i prezzi dei loro LLM più economici. Google ha ridotto il prezzo di input per Gemini 1.5 Flash (il costo per far elaborare il testo al modello) del 78% e il prezzo di output (il costo per far generare il testo al modello) del 71%
OpenAI, nel frattempo, ha ridotto il prezzo di input per GPT-4o della metà e il prezzo di output di un terzo.

@aitech

https://techcrunch.com/2024/08/28/this-week-in-ai-ai-is-rapidly-being-commoditized/

65
 
 

Il disegno di legge sull’IA della California può migliorare la regolamentazione anche in UE, affermano gli esperti

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Gli esperti ritengono che un controverso disegno di legge della California che regolamenta i

66
 
 

La I^ parte è qui: poliverso.org/display/0477a01e…

Immagine/foto

L’AI Toolkit offre una prospettiva equilibrata sull’innovazione responsabile dell’AI fondata sui diritti umani, sull’etica e su solidi principi di polizia consolidati, il tutto contestualizzato attraverso esempi pratici di casi d’uso specifici delle forze dell’ordine.
All'interno del toolkit AI
L’AI Toolkit contiene sette risorse progettate per fornire al personale delle forze dell’ordine le conoscenze e gli strumenti necessari per affrontare le complessità dell’AI e garantirne un utilizzo responsabile nelle attività di polizia. Queste risorse sono integrate con un FILE README, che funge da introduzione all'AI Toolkit, spiegando come esplorarlo e ottenere il massimo dai suoi contenuti.
Il Toolkit AI comprende le seguenti risorse:
• Documenti di orientamento primari
• Strumenti pratici
• Documento giustificativo
• Introduzione all’innovazione responsabile dell’AI
• Principi per l’innovazione responsabile dell’AI
• Roadmap organizzativa
• Questionario di valutazione della preparazione organizzativa
• Questionario sulla valutazione del rischio
• Quaderno di esercizi sull'innovazione responsabile dell'intelligenza artificiale in azione
• Libro di riferimento tecnico
A chi è rivolto il toolkit AI?
L’AI Toolkit è stato creato principalmente per il personale delle forze dell’ordine locali, regionali e nazionali. È adatto sia agli ufficiali che ai civili in diversi dipartimenti e unità, tra cui:
• utenti finali dei sistemi di IA nelle unità operative
• personale nei team di innovazione
• responsabili legali e degli appalti
• il capo della polizia e la loro leadership esecutiva.
Tuttavia, molti altri soggetti interessati non appartenenti alle forze dell’ordine potrebbero trovare utile l’AI Toolkit. Ad esempio, gli sviluppatori di tecnologia nel settore privato o nel mondo accademico, la società civile, il pubblico in generale e altri attori della giustizia penale come magistratura, pubblici ministeri e avvocati possono utilizzare l'AI Toolkit per migliorare la loro conoscenza e consapevolezza sui temi dell'AI responsabile innovazione nelle forze dell’ordine.
Il toolkit AI crea nuovi obblighi?
L'AI Toolkit non è destinato a creare obblighi vincolanti o a limitare o indebolire gli obblighi vincolanti di qualsiasi agenzia ai sensi del diritto nazionale o internazionale. Piuttosto, l’AI Toolkit fornisce indicazioni, considerazioni e raccomandazioni da seguire volontariamente.
L’AI Toolkit non mira a sostituire o integrare alcuna delle strategie, politiche o procedure di gestione già in atto nelle forze dell’ordine. Al contrario, integra i processi e le procedure istituzionali e organizzativi esistenti. È particolarmente utile se utilizzato insieme ad altri strumenti di gestione pertinenti come la gestione dei progetti, l'analisi dei rischi e dei bisogni, la protezione e valutazione dei dati o l'analisi rischi-benefici.
A quali sistemi di intelligenza artificiale si applica l’AI Toolkit?
Le forze dell’ordine utilizzano i sistemi di intelligenza artificiale in molti modi diversi, alcuni più propensi a sollevare problemi rispetto ad altri. Ad esempio, le agenzie potrebbero adottare software con componenti di intelligenza artificiale come filtri antispam per e-mail o app di navigazione. Questi sistemi generalmente non sono stati prodotti o utilizzati esclusivamente in un contesto di applicazione della legge e talvolta sono ampiamente adottati nella società. L’AI Toolkit si applica in questi casi?
Data la loro natura, i principi fondamentali per l’innovazione responsabile dell’AI si applicano a tutti gli usi dei sistemi di AI e in tutte le fasi del ciclo di vita. Si tratta di principi generali progettati per essere adattabili a diversi contesti, indipendentemente dalla natura del caso d'uso stesso o dal fatto che sia stato sviluppato appositamente per il contesto delle forze dell'ordine. Rispettarli contribuirà a promuovere buone pratiche poiché le agenzie sfruttano il potenziale positivo dell’utilizzo dei sistemi di intelligenza artificiale.
Per determinare se si applicano le linee guida, le raccomandazioni e le considerazioni contenute nel resto dell’AI Toolkit, le agenzie dovrebbero considerare le seguenti tre domande:
• l’uso del sistema di intelligenza artificiale riguarda l’esecuzione delle funzioni principali delle forze dell’ordine, vale a dire proteggere la comunità, prevenire e indagare sulla criminalità e garantire la giustizia?
• sono stati identificati rischi medi, alti o estremamente elevati relativi al sistema di AI dopo aver completato il questionario di valutazione dei rischi?
• ci sono altri potenziali effetti sui diritti umani che richiedono di prendere in considerazione l’applicazione completa dell’AI Toolkit?
Se la risposta a una qualsiasi di queste tre domande è sì, le agenzie sono incoraggiate a prendere in considerazione le linee guida, le raccomandazioni e le considerazioni dell’AI Toolkit nella misura più ampia possibile.

#AITOOLKIT #INTERPOL #UNICRI #artificialintelligence #AI
@aitech

I link per approfondire e scaricare i manuali:
ai-lawenforcement.org/node/118
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…

67
 
 

L'intelligenza artificiale (AI) sta trasformando le forze dell'ordine in tutto il mondo. L'innovazione responsabile dell'AI aiuta le forze dell'ordine a sfruttare il potenziale dell'AI, salvaguardando al contempo la legge, l'etica e i principi di polizia in materia di diritti umani.
Il Toolkit per l'innovazione responsabile dell'AI nelle forze dell'ordine, di cui parleremo nella II^ Parte, supporta la comunità globale delle forze dell'ordine nel suo percorso verso un'innovazione responsabile dell'AI. Sviluppato da INTERPOL e UNICRI (l'Istituto interregionale delle Nazioni Unite per la ricerca sul crimine e la giustizia) con il sostegno finanziario dell'Unione Europea, il kit di strumenti per l'AI include varie risorse che forniscono una guida completa per consentire alle agenzie di implementare l'innovazione responsabile dell'AI.
Comprendere le basi dell'innovazione dell'AI nelle forze dell'ordine
Nell'AI Toolkit, il termine "innovazione dell'AI" è utilizzato per riferirsi all'ampia gamma di attività che le autorità di contrasto alla criminalità intraprendono nell'implementazione dei sistemi di AI nel loro lavoro. Ciò include tutte le fasi del ciclo di vita dell'AI, dalla pianificazione all'implementazione, all'uso e al monitoraggio e qualsiasi altra cosa possa comportare.
Per sfruttare appieno i vantaggi dell'innovazione dell'AI, le autorità di contrasto hanno bisogno di definizioni comuni dei termini chiave e di una comprensione di concetti di base come l'AI e i sistemi di AI e di come possono essere applicati nel loro contesto.
I sistemi di intelligenza artificiale vengono implementati nelle forze dell'ordine per una varietà di scopi.
Questi sistemi altamente versatili possono essere infatti applicati in diversi campi per raggiungere un'ampia gamma di obiettivi. Con il rapido sviluppo dell'intelligenza artificiale, gli algoritmi stanno diventando sempre più specializzati e sempre più in grado di elaborare diversi tipi di dati e produrre tipi specifici di output. Questa rapida evoluzione può essere vista anche nel contesto delle forze dell'ordine. L'uso dell'AI nelle forze dell'ordine è in continuo aumento e le autorità di contrasto stanno facendo buon uso dei nuovi tipi di sistemi e strumenti di AI che vengono sviluppati regolarmente. Ciononostante, è possibile classificare le applicazioni più comuni dei sistemi di AI nelle forze dell'ordine in base al loro scopo principale. Attualmente, i sistemi di intelligenza artificiale sono più frequentemente applicati nelle forze dell'ordine per:

Immagine/foto

La necessità di un'innovazione responsabile dell'AI nelle forze dell'ordine
I sistemi di intelligenza artificiale, e in particolare quelli con algoritmi di apprendimento automatico, sono molto bravi ad analizzare rapidamente grandi quantità di informazioni che hanno origini e formati diversi. Possono essere progettati per eseguire un'ampia gamma di attività in base alle informazioni raccolte attraverso tale processo. L'applicazione di queste funzionalità alle forze dell'ordine può avere immensi vantaggi, alcuni dei quali sono elencati di seguito. I sistemi di intelligenza artificiale possono:
• migliorare l’analisi dei dati relativi alla criminalità e l’individuazione, la prevenzione e l’investigazione dei reati.
• svolgere compiti specifici ripetitivi e banali molto più velocemente di quanto potrebbe mai fare qualsiasi ufficiale. Ciò lascia agli agenti più tempo per concentrarsi su altri compiti.
• aiutare a salvaguardare il benessere delle forze dell’ordine riducendo la loro esposizione a materiale impegnativo come quello relativo agli abusi sessuali sui minori.
Sebbene il loro potenziale sia innegabile, i sistemi di intelligenza artificiale hanno dei limiti e possono avere conseguenze negative. Come con qualsiasi tecnologia, i sistemi di intelligenza artificiale non sono intrinsecamente "buoni" o "cattivi". Un'auto, ad esempio, può essere utilizzata per il trasporto o il rapimento: è l'essere umano al volante che rende l'uso dell'auto buono o cattivo. Un'auto può anche essere mal progettata, malfunzionante e priva di dispositivi di sicurezza. Un'auto del genere, anche se viene utilizzata con le migliori intenzioni, può causare danni a causa del modo in cui è progettata. Lo stesso vale per i sistemi di intelligenza artificiale. Proprio come le automobili, è il modo in cui noi, come esseri umani, progettiamo e utilizziamo i sistemi di intelligenza artificiale che determina se il risultato sarà benefico o dannoso. Per massimizzare i benefici e ridurre al minimo i rischi associati ai sistemi di AI, le forze dell'ordine devono adottare un approccio responsabile all'innovazione dell'AI.
L'innovazione responsabile dell'AI consiste nell'integrare i sistemi di AI nel lavoro delle autorità di contrasto in modi che siano in linea con i principi di polizia e che siano eticamente corretti.
Si tratta di un processo continuo che richiede la comprensione dei limiti e dei rischi dei sistemi di AI e l'attuazione di misure per evitare o mitigare sufficientemente le conseguenze negative che possono derivare dalla loro attuazione. Soprattutto, questo processo non dovrebbe essere motivo di preoccupazione per le forze dell'ordine o per il personale che cerca di integrare il sistema di intelligenza artificiale nel proprio lavoro. Al contrario, la comprensione dei limiti e dei rischi dei sistemi di intelligenza artificiale consente agli individui e alle organizzazioni di andare avanti con fiducia. Tale sicurezza di sé è essenziale per controbilanciare la tendenza delle persone a fare troppo affidamento sui risultati di sistemi automatizzati come i sistemi di intelligenza artificiale, nota anche come “bias di automazione”. Un approccio responsabile all'innovazione dell'IA è fondamentale durante l'intero ciclo di vita dell'AI e in tutti i contesti in cui le autorità di contrasto interagiscono con l'AI. Vi è una necessità trasversale di un'innovazione responsabile dell'AI nelle autorità di contrasto, in primo luogo a causa di alcune caratteristiche dei sistemi di AI che richiedono maggiore attenzione e dovuta diligenza in quanto possono creare o esacerbare impatti negativi gravi o irreversibili sugli individui, sulla società e sull'ambiente se non sono comprese e affrontate in modo appropriato. e nel rispetto dei diritti umani.
L'innovazione responsabile dell'IA è un processo continuo, non un obiettivo prefissato. Portare avanti l'innovazione dell'AI in modo responsabile significa aderire ai principi di una buona polizia, seguire e implementare l'etica dell'AI e rispettare la legge sui diritti umani, il tutto con l'obiettivo di massimizzare i benefici e ridurre al minimo i danni derivanti dall'integrazione dei sistemi di AI nelle forze dell'ordine. Richiede il coinvolgimento e l'impegno di tutte le parti interessate, nonché conoscenze, strutture, procedure e misure organizzative e tecniche adeguate per garantire il rispetto degli standard più elevati in materia di buona governance, due diligence e responsabilità. L'AI Toolkit include diverse risorse che mirano a guidare le forze dell'ordine in questo processo. I principi per un'innovazione responsabile dell'AI sono la pietra angolare di questa guida.
A causa delle caratteristiche dei sistemi di AI e delle particolarità del contesto di applicazione della legge, in ogni fase del ciclo di vita dell'AI sorgono questioni etiche e relative ai diritti umani diverse e complesse, indipendentemente dalla misura in cui una specifica agenzia è coinvolta nei sistemi di AI. I principi per l'innovazione responsabile dell'AI forniscono alle forze dell'ordine un quadro che può essere utilizzato per affrontare questi problemi.
Più specificamente, questi principi aiutano le autorità di contrasto – e i portatori di interessi secondari come gli sviluppatori esterni – a garantire che le preoccupazioni etiche e il potenziale impatto negativo sui diritti umani derivanti dai sistemi di AI siano identificati ed eliminati o sufficientemente mitigati in una fase precoce. A tal fine, stabiliscono cinque principi fondamentali in base ai quali le agenzie possono guidare e valutare le loro azioni: legalità, minimizzazione del danno, autonomia umana, equità e buon governo.
La legge sui diritti umani impone alle forze dell'ordine, agli agenti e ad altro personale l'obbligo di proteggere e rispettare i diritti umani degli individui e di astenersi dal violare i diritti umani in tutte le loro attività. Sebbene l'obbligo di perseguire la propria missione in modo conforme ai diritti umani non sia una novità nell'applicazione della legge, l'introduzione di sistemi di intelligenza artificiale aggiunge un livello di rischio che rende ancora più importante attenersi alla legge.
Infatti, le caratteristiche dei sistemi di AI nel contesto delle attività di polizia, come spiegato in precedenza, spesso portano a un'interferenza con i diritti umani. Questo è il motivo per cui è fondamentale integrare le considerazioni relative ai diritti umani nell'uso dei sistemi di AI da parte delle forze dell'ordine.
La legge sui diritti umani può adattarsi alle caratteristiche e alle necessità del contesto delle forze dell'ordine. In determinate circostanze e con il dovuto riguardo per una serie di garanzie essenziali, la legge consente alle agenzie o ai funzionari all'interno di tali agenzie di agire in un modo che interferisce con alcuni di questi diritti umani. Ciò avviene per finalità legittime, quali il rispetto della sicurezza nazionale, dell'ordine pubblico e della sicurezza attraverso l'indagine e la prevenzione di reati o altri compiti di contrasto necessari e proporzionati, al fine di evitare gravi danni.
Cosa sono i diritti umani? I diritti umani e le libertà sono diritti individuali conferiti a tutti, indipendentemente dal loro background. Esse non sono concesse dagli Stati o dalle leggi nazionali, ma derivano invece dalla dignità intrinseca di ogni persona. In altre parole, tutti gli individui hanno diritti e libertà semplicemente perché sono esseri umani. I diritti umani sono caratterizzati come: Universale, nel senso che tutti ne hanno lo stesso diritto, indipendentemente dalla nazionalità, dal sesso, dall'età, dall'origine nazionale o etnica, dal colore, dalla religione, dalla lingua o da qualsiasi altro status. Inalienabile, il che significa che il loro godimento non dovrebbe mai essere precluso se non in circostanze eccezionali e giustificate e seguendo un giusto processo. Indivisibile e interdipendente, il che significa che ogni diritto può essere pienamente goduto solo se sono garantiti anche i diritti rimanenti.
Esistono diversi tipi di diritti umani, ma tutti sono ugualmente importanti. La legge sui diritti umani impone alle forze dell'ordine, agli agenti e ad altro personale l'obbligo di proteggere e rispettare i diritti umani degli individui e di astenersi dal violare i diritti umani in tutte le loro attività. Sebbene l'obbligo di perseguire la propria missione in modo conforme ai diritti umani non sia una novità nell'applicazione della legge, l'introduzione di sistemi di intelligenza artificiale aggiunge un livello di rischio che rende ancora più importante attenersi alla legge.
@aitech
#INTERPOL #UNICRI #AI #ARTIFICIALINTELLIGENCE

68
 
 

I CEO di Meta e Spotify rosicano per la regolamentazione dell'intelligenza artificiale nell'UE

"Nel breve termine, ritardare l'uso di dati che vengono usati di routine in altre regioni significa che i modelli di intelligenza artificiale più potenti non potranno (sfruttare? 🙊) riflettere la conoscenza collettiva, la cultura e le lingue dell'Europa, e gli europei non potranno usare i prodotti di intelligenza artificiale più recenti"

@aitech

https://techcrunch.com/2024/08/23/meta-and-spotify-ceos-criticize-ai-regulation-in-the-eu/

69
70
 
 

Le aziende stanno facendo AI-washing? Il fondatore di Rippling, Parker Conrad, pensa che sia spesso così

"Ci sono un sacco di cose davvero inconsistenti nel mondo dell'IA", ha detto Conrad, aggiungendo che "non si può dire che l'IA non sarà trasformativa. Ci sono un sacco di capacità che sono davvero importanti. È solo che non sono rimasto impressionato da molte di quelle che ho visto"

@aitech

https://techcrunch.com/2024/08/20/is-your-company-ai-washing-rippling-founder-parker-conrad-thinks-it-might-be/

71
72
 
 

Le persone diffidano dell'intelligenza artificiale generativa in ambiti in cui può apportare un valore enorme, e si fidano troppo quando la tecnologia non è competente

@aitech

Un esperimento scientifico, il primo nel suo genere, ha scoperto che le persone diffidano dell'intelligenza artificiale generativa in ambiti in cui può apportare un valore enorme, e si fidano troppo quando la tecnologia non è competente.

  • Circa il 90% dei partecipanti ha migliorato le proprie prestazioni quando ha utilizzato GenAI per l'ideazione creativa. Le persone hanno ottenuto risultati migliori quando non hanno tentato di modificare l'output di GPT-4.
  • Quando lavoravano alla risoluzione di problemi aziendali, un compito al di fuori delle competenze attuali dello strumento, molti partecipanti hanno preso per oro colato l'output fuorviante di GPT-4. Le loro prestazioni erano peggiori del 23% rispetto a coloro che non utilizzavano affatto lo strumento.
  • L'adozione dell'AI generativa è un enorme sforzo di gestione del cambiamento. Il compito del leader è aiutare le persone a usare la nuova tecnologia nel modo giusto, per i compiti giusti e ad adattarsi e regolarsi continuamente di fronte alla frontiera in continua espansione della GenAI.

L'articolo completo di François Candelon , Lisa Krayer , Saran Rajendran e David Zuluaga Martínez è stato pubblicato sul sito del Boston Consulting Group

73
 
 

X ha ricevuto nove reclami per la protezione dei dati ed ha annunciato che sospenderà in parte l’addestramento dell’IA

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Lunedì 12 agosto, X (ex Twitter) ha ricevuto nove reclami in materia di protezione dei

74
 
 

I chatbot basati sull’intelligenza artificiale non sono facilissimi da promuovere

#UnoTech

@aitech

https://www.ilpost.it/2024/08/08/spot-pubblicita-chatbot-google-meta/

75
 
 

Le industrie del settore tecnologico chiedono a Bruxelles di prorogare il termine per contribuire all’AI Code of Practice

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Un gruppo di 11 associazioni industriali del settore Hi-Tech ha chiesto alla

view more: ‹ prev next ›