Il pericolo dell’AI-washing nel settore della nutrizione

Quanto è reale la minaccia dell’AI washing?

Il AI washing è una tattica di marketing ingannevole in cui le aziende esagerano il ruolo dell’AI nella promozione dei propri prodotti o servizi.

Questo può rappresentare un potenziale rischio per diversi motivi, come spiegato dallo scienziato del rischio alimentare e esperto di regolamentazione alimentare.

L’uso crescente dell’AI nel settore nutrizionale

L’AI viene sempre più utilizzata nel settore nutrizionale per migliorare i risultati di salute. Alcune app e piattaforme dotate di AI sono ora in grado di fornire consigli nutrizionali personalizzati basati su fattori come il profilo genetico (ad esempio, Zoe), la salute metabolica (ad esempio, Lumen), la salute digestiva (ad esempio, Foodmarble) e i livelli di attività (ad esempio, MyFitnessPal).

Gli algoritmi di machine learning possono anche analizzare grandi dataset provenienti da studi clinici, diari alimentari e metriche di salute per identificare modelli su come determinati alimenti influenzano specifiche popolazioni. L’AI può quindi utilizzare questi modelli per suggerire interventi dietetici più efficaci e supportati dalla scienza per gli individui, come fa il marchio InsideTracker, offrendo consigli personalizzati basati su test di dati biologici.

La tecnologia di riconoscimento immagini AI si è evoluta a tal punto da essere in grado di identificare alimenti da foto. App come Yuka utilizzano questa tecnologia per consentire agli utenti di fotografare codici a barre, e l’AI stima la composizione nutrizionale.

La tecnologia viene anche utilizzata per aiutare a prevedere le esigenze nutrizionali degli individui in base al loro stato di salute, ad esempio, le carenze nutrizionali nei neonati, come fa l’app Alba Health. Inoltre, viene utilizzata da marchi per identificare potenziali malattie, come dimostrato dal Health Mate di Withings, un orologio intelligente progettato per “eseguire un controllo completo del corpo con facilità”.

Inoltre, alcuni assistenti virtuali guidati dall’AI offrono ora consigli nutrizionali in tempo reale, ricordando agli utenti la loro dieta, rispondendo a domande relative al cibo e persino aiutando le persone con allergie o intolleranze alimentari a fare scelte sicure.

Qual è il problema?

I marchi consolidati nel settore riconoscono il potenziale trasformativo dell’AI e stanno attivamente investendo in essa per migliorare l’efficienza, ridurre i costi e migliorare la qualità dei prodotti. Tuttavia, nonostante la loro consapevolezza e i loro investimenti, molte aziende affrontano sfide significative nell’implementazione efficace dell’AI.

Se i marchi affermano che i loro prodotti o servizi sono alimentati dall’AI senza utilizzare realmente un’AI significativa, questo può ingannare i consumatori facendogli credere che un prodotto sia più avanzato, accurato o scientificamente supportato di quanto non sia in realtà.

“È mia impressione che spesso le affermazioni di ‘AI-powered’ o simili siano esagerate”, ha dichiarato l’esperto.

Inoltre, se l’AI genera contenuti complessi che gli esseri umani non possono esaminare completamente, può non rispettare le normative. Ciò potrebbe portare a disinformazione e a una diminuzione della fiducia nei contenuti generati dall’AI.

Tuttavia, essere troppo cauti con l’AI potrebbe renderla meno utile, nel senso che se l’AI applica restrizioni eccessive, potrebbe rifiutare di generare consigli utili per la salute e la dieta, anche quando le informazioni sono valide e conformi.

“C’è un dovere di valutare il rischio dell’AI e, dopo questa valutazione, le aziende potrebbero dover adattare il proprio approccio”, ha aggiunto l’esperto.

Il Regolamento sull’AI dell’UE

Il Regolamento sull’AI dell’UE è una proposta recente dell’Unione Europea per regolare le tecnologie AI e garantire che siano utilizzate in modo etico, sicuro e trasparente.

Lo scopo della legge è quello di massimizzare i benefici dell’AI minimizzando i rischi e di stabilire l’Europa come leader globale nella regolamentazione delle tecnologie AI.

Il regolamento disciplina l’uso dell’AI in tutti i settori, incluso quello alimentare e nutrizionale. La maggior parte degli strumenti AI utilizzati in questo settore sono a basso rischio e non richiedono regolamenti specifici, tuttavia, la legge stabilisce regole sulla trasparenza, la classificazione del rischio e alcune proibizioni.

Ad esempio, richiede la divulgazione di influencer virtuali che somigliano a persone reali, poiché questi stanno diventando sempre più comuni, soprattutto per la promozione di integratori.

Gli dispositivi medici alimentati dall’AI utilizzati dai consumatori per guidare le scelte alimentari o di integratori sono anch’essi regolamentati.

“In generale, le aziende alimentari e nutrizionali devono garantire che i loro strumenti AI siano conformi alle linee guida del Regolamento AI”, ha affermato l’esperto.

Consigli per i marchi

I regolatori sono ancora nelle fasi iniziali di valutazione dei sistemi AI nel settore nutrizionale per la conformità con il Regolamento.

“La legge non è troppo complicata e ci sono linee guida, anche se alcune questioni sono ancora in attesa di chiarimenti”, ha aggiunto.

“Se un marchio o un’azienda intende implementare l’AI, oltre a utilizzare internamente strumenti come ChatGPT o Gemini, dovrebbe esaminare attentamente la legge, formando il personale o attraverso professionisti.”

Inoltre, sia gli sviluppatori che i fruitori dell’AI devono comprendere i propri obblighi, specialmente quando utilizzano AI sviluppata al di fuori dell’UE, il che può introdurre ulteriori sfide.

Le aziende che utilizzano consigli sulla salute o sulla nutrizione generati dall’AI senza una supervisione adeguata affrontano rischi legali, poiché il Regolamento AI include meccanismi di enforcement e sanzioni.

“In generale, siamo ancora nelle fasi iniziali, quindi uno scetticismo è una strategia saggia”, ha concluso l’esperto.

More Insights

Dati Fidati per l’AI: La Chiave della Trasformazione nel Settore Telecomunicazioni

L'intelligenza artificiale (AI) non è più un concetto futuristico nel settore delle telecomunicazioni, ma è la forza trainante dietro la trasformazione dell'industria. Tuttavia, questa rivoluzione...

Marocco: Pioniere nella Governance Globale dell’IA

Il Marocco ha preso un'iniziativa precoce nel promuovere la governance globale dell'intelligenza artificiale, collaborando con gli Stati Uniti e aderendo all'iniziativa cinese. L'ambasciatore Omar...

La battaglia per la regolamentazione dell’IA

La battaglia su chi deve regolare l'IA è tutt'altro che finita. Nonostante il passaggio del One Big Beautiful Bill Act al Senato, l'emendamento controverso che imponeva un divieto di regolamentazione...

Pronti per l’AI: Valutare l’Adattamento nel Settore Farmaceutico

L'intelligenza artificiale è destinata a trasformare ogni angolo dell'industria farmaceutica, dalla scoperta delle molecole alle sperimentazioni cliniche. È fondamentale che le organizzazioni...

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è...

Etica dell’IA: Progresso e Inclusività in Scozia

L'Allianza Scozzese per l'IA ha pubblicato il suo Rapporto di Impatto 2024/2025, evidenziando un anno di progressi nella promozione di un'intelligenza artificiale etica e inclusiva in Scozia. Il...

L’Urgenza del Regolamento sull’IA: Preparati al Cambiamento

L'annuncio della Commissione UE venerdì scorso che non ci sarà un ritardo nell'Atto sull'IA dell'UE ha suscitato reazioni contrastanti. È tempo di agire e ottenere alcuni fatti, poiché le scadenze di...

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...