• pgo_lemmy@feddit.it
    link
    fedilink
    Italiano
    arrow-up
    2
    ·
    6 days ago

    La risposta è facile: no.

    Chi realizza sistemi per usi seriamente pensati li addestra con dati selezionati: se i dati di addestramento sono filtrati a monte, il problema dell’avvelenamento non si pone.

    Gli LLM a cui si riferisce l’articolo sono quelli che rastrellano indiscriminatamente la rete, LLM che sono tutto fuorchè intelligenti.

    E uso di proposito LLM al posto della sigla di due lettere per rendere evidente che non sono intelligemti: se lo fossero, saprebbero scartare le informazioni sbagliate…