• Andre123 🐧@snowfan.it
    link
    fedilink
    arrow-up
    2
    ·
    6 days ago

    @informapirata @informatica

    La domanda che mi pongo è se tutto ciò non andrà a massacrare anche possibilità d i uso legittimo di AI dedicate a compiti specifici. Penso a una compagnia di Taxi autonomi che usa la AI non solo per condurre i veicoli, ma anche per dislocarli in città nei vari orari ecc. A un’azienda farmaceutica che usa la AI per fare ricerca ecc.

    • pgo_lemmy@feddit.it
      link
      fedilink
      Italiano
      arrow-up
      2
      ·
      6 days ago

      La risposta è facile: no.

      Chi realizza sistemi per usi seriamente pensati li addestra con dati selezionati: se i dati di addestramento sono filtrati a monte, il problema dell’avvelenamento non si pone.

      Gli LLM a cui si riferisce l’articolo sono quelli che rastrellano indiscriminatamente la rete, LLM che sono tutto fuorchè intelligenti.

      E uso di proposito LLM al posto della sigla di due lettere per rendere evidente che non sono intelligemti: se lo fossero, saprebbero scartare le informazioni sbagliate…

    • Elena Brescacin@poliversity.it
      link
      fedilink
      arrow-up
      1
      ·
      6 days ago

      @andre123 @informapirata @informatica A questi avvelenatori augurerei di perdere la vista e trovarsi per strada con lo smartphone in mano a guidarli. Un amico mio si è trovato coi meta rayban che lo hanno orientato da una parte, invece per evitare l’ostacolo doveva andare dall’altra. E lui su youtube lo dice chiaro: non fidatevi totalmente di queste tecnologie.
      E sì, anch’io appoggio la scelta di chiamarli modelli linguistici o, al massimo, “generatori automatici basati su modelli linguistici di grandi dimensioni” e tuto el resto va in mona [cit]

      • pgo_lemmy@feddit.it
        link
        fedilink
        Italiano
        arrow-up
        1
        ·
        edit-2
        6 days ago

        La fiat/audii/mercedes produce macchine con le sospensioni fallate e chi ne subisce le conseguenze si lamenta dei dossi di rallentamento che proteggono i pedoni dai guidatori incoscienti.

        Empatizzo con chi patisce i difetti (noti e ignorati) degli LLM, ma la colpa non è dei dossi e toglierli non è la soluzione.

        • Elena Brescacin@poliversity.it
          link
          fedilink
          arrow-up
          2
          ·
          6 days ago

          @pgo_lemmy “toglierli non è la soluzione” a qualsiasi cosa. Basta che guardi la storia della verifica età, gli smartphone a scuola, l’educazione sessuale e tutto il resto. Comprese le droghe. Senza conoscenza, e senza alternative, il problema viene solo rimandato

    • informapirata@poliverso.orgOP
      link
      fedilink
      arrow-up
      1
      ·
      6 days ago

      @andre123 qui però stiamo parlando soprattutto di LLM e altri modelli “content creator”, non di sistemi di intelligenza artificiale tout court, come quelli di guida autonoma, sistmi di simulazione, analisi testuale, etc