Penso che sia solo una caratteristica di ciò che sta accadendo esattamente in questo momento. Crei un'immagine, proprio come se la stessi disegnando o utilizzando la CGI, è un tentativo di catturare la realtà.
Siamo molto ben addestrati a riconoscere alcune cose che dovrebbero essere tutte parametri in tali processi. Alcuni sono molto evidenti, altri non sono sempre quantificabili per chi si rende conto di ciò che sono.
CGI (come nel rendering di una scena 3D) ha qui un vantaggio perché molti parametri sono presenti e interdipendenti. Pensa al ray tracing e ai materiali.
L'intelligenza artificiale funziona da un'angolazione completamente diversa e cerca di indovinare i pixel, in modo che non vi sia alcuna connessione tra le cose nella realtà. La probabilità che le cose non vadano bene aumenta drammaticamente man mano che il quadro diventa più complesso. Ad esempio, l’illuminazione è qualcosa che influenza tutto e qualcosa che non va da qualche parte viene immediatamente notato dalla maggior parte delle persone.
E poi, ovviamente, c'è una grande trappola nell'intelligenza artificiale verso la quale ci stiamo lentamente muovendo: i dati di addestramento. Come ho detto, l'arte AI ha uno stile riconoscibile (soprattutto per le immagini non fotorealistiche) e ci sono buone probabilità che la successiva iterazione dei dati di addestramento conterrà le stesse immagini generate in precedenza. Dopotutto, diversi siti hanno ora stipulato accordi per utilizzarli come fonte che contiene anche quelle immagini.
Il risultato: un ciclo di feedback che può diventare sempre più ampio.
Immagine AI -> Allenamento -> Nuova immagine AI -> Torna all'allenamento.
Sempre più persone lo usano, tutti ricevono immagini modello e ritornano ad esse, quindi la propensione verso quelle immagini aumenta.
Se tutti smettessimo di creare cose da soli e usassimo l’intelligenza artificiale per tutto, rimarremmo fermi.
“Fanatico della TV. Dipendente del web. Evangelista di viaggi. Aspirante imprenditore. Esploratore dilettante. Scrittore.”