Scopri come i motori di ricerca possono rendere l’AI generativa più affidabile

I motori di ricerca hanno perfezionato tecniche per l'analisi dei dati: ecco come queste possono migliorare l'affidabilità delle applicazioni di AI generativa in ambito aziendale.
  • Importanza di fonti affidabili: i motori di ricerca danno priorità a pagine con numerosi e qualificati link.
  • Applicazioni di AI generativa devono emulare queste tecniche per restituire risultati affidabili.
  • Adottando tecniche di Retrieval Augmented Generation (RAG), le aziende possono consultare fonti esterne affidabili per migliorare le risposte AI.

Osservando ciò che i motori di ricerca fanno bene possiamo imparare a sviluppare applicazioni di intelligenza artificiale generativa più attendibili e godere degli immensi miglioramenti in termini di efficienza, produttività e servizio clienti che offre, ma solo se abbiamo la certezza che tali applicazioni forniscano informazioni affidabili e precise.

In alcuni contesti, il livello di accuratezza richiesto all’AI non è particolarmente elevato. Se si sta sviluppando un programma che decide quale pubblicità visualizzare su una pagina web, una soluzione AI mediamente accurata può andare bene. Ma se un cliente interroga un chatbot relativamente all’importo della fattura del mese o se un dipendente chiede conferma sui giorni di ferie residui, la risposta deve essere precisa e senza margine di errore.

I motori di ricerca cercano da tempo di fornire risposte accurate sulla base di estesi set di dati: hanno successo in alcune aree e meno in altre. Prendendo gli aspetti migliori della ricerca e combinandoli con nuovi approcci più adatti all’AI generativa in ambito aziendale, possiamo risolvere il problema della fiducia e liberare la potenza della Gen AI nel mondo del lavoro.

Separare il grano dalla pula

Se c’è un’area in cui i motori di ricerca hanno dimostrato efficacia è nella capacità di analizzare grandi volumi di informazioni e identificare le fonti di maggiore qualità. Ad esempio, esaminando il numero e la qualità dei link che rimandano a una pagina web, i motori di ricerca danno priorità alle pagine web che hanno maggiori probabilità di essere affidabili, così come favoriscono domini noti per la loro attendibilità, come i siti istituzionali, o fonti di notizie autorevoli come la BBC.

In ambito business, le applicazioni di intelligenza artificiale generativa possono emulare queste tecniche di classificazione per restituire risultati affidabili. Dovrebbero privilegiare le fonti di dati aziendali più frequentemente consultate, ricercate o condivise, e favorire fortemente strumenti di cui si conosce l’affidabilità, come i manuali di formazione o i database delle risorse umane.

Cosa ne pensi?
  • Fantastico approccio all'affidabilità dell'AI... 🚀...
  • Preoccupante la possibilità di risposte errate... 😟...
  • Interessante il paragone con motori di ricerca... 🤔...

I Large Language Model sono un interlocutore, non un oracolo

Molti modelli linguistici di grandi dimensioni (LLM) sono stati addestrati sulla base di internet che, come sappiamo, contiene informazioni di tutti i generi. Ciò significa che sono in grado di rispondere a domande su un’ampia varietà di argomenti, ma devono ancora sviluppare i metodi di classificazione più maturi e sofisticati che i motori di ricerca già utilizzano per affinare i loro risultati. Ed è uno dei motivi per cui molti rinomati LLM possono avere allucinazioni e fornire risposte errate.

Uno degli insegnamenti da trarre è che gli sviluppatori dovrebbero pensare ai LLM come a degli interlocutori, piuttosto che una fonte assoluta di verità. In altre parole, i LLM sono in grado di comprendere il linguaggio e formulare delle risposte, ma non devono essere utilizzati come unica fonte di verità. Per risolvere questo problema, molte aziende addestrano i loro LLM sui loro dati e su serie di dati di terze parti, riducendo al minimo la presenza di dati errati. Adottando le tecniche di classificazione dei motori di ricerca e favorendo fonti di dati di qualità, le applicazioni di AI enterprise diventano molto più affidabili.

L’umiltà di dire “non lo so”

La ricerca è diventata molto abile nel comprendere il contesto per risolvere le ambiguità. Se alcuni termini di ricerca possono avere più significati diversi, i motori di ricerca tengono conto di fattori come la posizione geografica e la presenza di certe parole chiave per determinare l’intento dell’utente e fornire la risposta più pertinente.

Tuttavia, quando un motore di ricerca non è in grado di fornire la risposta giusta, perché manca di un contesto sufficiente o semplicemente non esiste una risposta univoca, cercherà di farlo comunque. Ad esempio, se si chiede a un motore di ricerca: “Come sarà lo stato dell’economia tra 100 anni?” o “Chi vincerà lo scudetto l’anno prossimo?” una risposta affidabile potrebbe non essere disponibile. Ma la loro filosofia è quella di fornire una risposta in quasi tutti i casi, anche se manca di affidabilità.

Si tratta però di un approccio inaccettabile per molti casi d’uso aziendali, motivo per cui le applicazioni di AI generativa hanno bisogno di un layer tra l’interfaccia di ricerca e il LLM che studi i contesti possibili e determini a priori se è in grado di fornire una risposta accurata o meno. In assenza di un elevato livello di attendibilità, deve comunicarlo all’utente, riducendo notevolmente la probabilità di una risposta sbagliata, aumentando la fiducia dell’utente e fornendo all’interlocutore la possibilità di aggiungere contesto di modo che l’applicazione possa produrre un risultato affidabile.

Il layer tra l’interfaccia utente e il LLM può anche utilizzare una tecnica chiamata Retrieval Augmented Generation, o RAG, per consultare fonti di dati affidabili esterne.

Mostrare il proprio lavoro

La spiegabilità è un altro aspetto su cui i motori di ricerca presentano debolezze, ma che le applicazioni di intelligenza artificiale generativa devono considerare per aumentare la fiducia dell’utilizzatore. Così come gli insegnanti dicono ai propri studenti di citare le fonti del proprio lavoro, lo stesso devono fare le applicazioni di AI generativa. Rendendo note le fonti utilizzate, gli utenti possono vedere da dove provengono le informazioni ricevute e perché dovrebbero fidarsi. Alcuni LLM pubblici hanno iniziato a fornire questa trasparenza, che dovrebbe essere un elemento fondamentale degli strumenti di AI generativa utilizzati in ambito aziendale.

Tenere gli occhi aperti

Nonostante gli sforzi, sarà difficile costruire applicazioni di AI che commettano pochissimi errori. Tuttavia, i vantaggi sono troppo significativi per rimanere in disparte e sperare che i concorrenti non facciano passi da gigante. Questo impone agli utenti aziendali di avvicinarsi agli strumenti di AI in modo consapevole. Proprio come internet ha cambiato il modo in cui le persone si rapportano alle notizie e alle fonti di informazione, gli utenti devono sviluppare uno scetticismo educato e imparare a cercare i segnali di un’AI affidabile, insistendo sulla spiegabilità, consapevoli delle potenziali distorsioni.

Bullet Executive Summary

Abbiamo iniziato un viaggio entusiasmante verso una nuova classe di applicazioni che trasformeranno il nostro lavoro e le nostre carriere in modi che non possiamo ancora prevedere. Ma per offrire valore, queste applicazioni devono essere affidabili e attendibili. I motori di ricerca hanno gettato le basi per ottenere risposte accurate partendo dall’analisi di grandi volumi di dati, ma sono stati progettati per casi d’uso diversi. Prendendo il meglio della tecnologia di ricerca e aggiungendo nuove tecniche per raggiungere una maggiore precisione, sarà possibile scatenare il pieno potenziale dell’AI generativa.

Nozione base di SEO e social marketing: La trasparenza delle fonti è fondamentale per costruire la fiducia degli utenti. Citare le fonti non solo aumenta la credibilità, ma migliora anche il posizionamento SEO, poiché i motori di ricerca premiano i contenuti che dimostrano autorevolezza e affidabilità.

Nozione avanzata di SEO e social marketing: L’implementazione di tecniche di Retrieval Augmented Generation (RAG) può migliorare significativamente la qualità delle risposte fornite dalle applicazioni di AI generativa. Questo non solo aumenta la fiducia degli utenti, ma può anche migliorare il coinvolgimento e la fidelizzazione, elementi cruciali per una strategia di marketing digitale di successo.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
4 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
4
0
Ci interessa la tua opinione, lascia un commento!x