Wired: il motore di ricerca Perplexity ignora i rifiuti nei file robots.txt – Professionista IT – Notizie

In Quello Questa risposta di LLM non ti è affatto utile, né dice nulla sul suo funzionamento. Ecco come puoi ottenere un LLM (o PNL) E non lo fa. Maestri come quelli di Perplexity, ChatGPT e Gemini non operano sulla base di alcun tipo di “autoconsapevolezza” o conoscenza diretta del proprio funzionamento interiore.

Un modello linguistico di grandi dimensioni (LLM) è un modello computazionale in grado di realizzare la generazione di un linguaggio generico e altre attività di elaborazione del linguaggio naturale come la classificazione.

Sulla base di modelli linguistici, gli studenti LLM acquisiscono queste abilità apprendendo relazioni statistiche da quantità fisse di testo durante un processo computazionalmente intenso di formazione auto- e semi-supervisionata.

Gli LLM possono essere utilizzati per generare testo, una forma di intelligenza artificiale generativa, prendendo il testo in input e prevedendo ripetutamente il simbolo o la parola successiva.

Vengono addestrati su grandi quantità di dati testuali e apprendono i modelli, le strutture e le relazioni del linguaggio, lasciandoli senza una conoscenza diretta o consapevolezza dei propri processi. Quando chiedi a un LLM dettagli sui propri processi, il modello fornirà una risposta basata sui dati su cui è stato addestrato (non sulla realtà). Ciò non significa che il modello fornisca una risposta informata o accurata, ma piuttosto una risposta che sembra ragionevole sulla base dei dati disponibili. Non “capisce” la tua domanda. Di conseguenza, le loro risposte possono talvolta essere imprecise o fuorvianti, soprattutto quando si tratta di autoriflessioni o di dettagli tecnici sulle proprie operazioni.

Storicamente, fino al 2020, il fine tuning è stato il metodo principale utilizzato per adattare il modello a compiti specifici. Tuttavia, modelli più grandi come GPT-3 hanno dimostrato la capacità di ottenere risultati simili attraverso un’ingegneria rapida, che prevede la creazione di richieste di input specifiche per guidare le risposte del modello.[3] Questi modelli acquisiscono conoscenze sulla sintassi, sulla semantica e sull'ontologia[4] sono inerenti al repertorio del linguaggio umano, ma ereditano anche imprecisioni e pregiudizi presenti nei dati su cui vengono addestrati.[5]

Possono essere aiutati con qualcosa Ingegneria urgentecreando richieste di input specifiche per guidare le risposte del modello, ma anche in questo caso il modello continuerà a generare risposte basate sui modelli e sui dati su cui è stato addestrato, senza alcuna reale conoscenza o comprensione del contenuto o del proprio funzionamento.

Ad esempio, se chiedi a Perplexity se rispetta i file robots.txt, il modello genererà una risposta basata sui dati di addestramento o su eventuali modifiche precedenti o successive (come con Gemini e il bit sul razzismo o, ad esempio, chiedi a Bing AI quanti Dai dipendenti di Pornhub.*) La risposta che Perplexity fornisce alle domande sul proprio processo non è (necessariamente) una conferma dei fatti e certamente non è una fonte affidabile senza ulteriori riferimenti alla fonte originale stessa.

Esempio di correttezza:
jdh009 in “Google lancia Gemini 1.5 Pro per gli abbonati avanzati”

*Per la risposta: inizia dando una normale risposta LLM ma viene interrotta e quindi “digita”:

Bene… proviamo un argomento diverso. Mi dispiace. Cos'hai in mente?

Citazione della fonte: Wikipedia: modello linguistico di grandi dimensioni

E ulteriori informazioni sulla PNL:
Wikipedia: elaborazione del linguaggio naturale

Questo è anche un ottimo esempio in cui l'intelligenza artificiale (tipo inconoscibile) viene utilizzata per contattare i clienti e dire sciocchezze per conto di Air Canada.

Il Tribunale di risoluzione civile della Columbia Britannica ha stabilito che Air Canada è responsabile per le informazioni inesatte fornite dal suo chatbot, ha riconosciuto i danni ai passeggeri e ha stabilito un precedente secondo cui le compagnie sono responsabili per le azioni della loro intelligenza artificiale.

https://www.bbc.com/trave…at-travellers-should-know

[Reactie gewijzigd door jdh009 op 20 juni 2024 19:12]

READ  La patch del microcodice non risolverà i crash sui processori Intel già interessati - Computer - Notizie

We will be happy to hear your thoughts

Leave a reply

TGcomnews24