• CosmoNova@lemmy.world
    link
    fedilink
    arrow-up
    22
    ·
    11 days ago

    Solange noch drübergelesen wird, habe ich grundsätzlich kein Problem damit, dass Texte maschinell entstanden sind. Jedoch könnte es schnell dazu führen, dass die Seite damit überflutet wird und bald keiner mehr hinterherkommt. Also aus organisatorischen Gründen ist es dann schon sehr bedenklich. Besonders wenn ich mir ansehe, wie andere Seiten mit hundert mal mehr Ressourcen damit bereits völlig überfordert sind.

    • gencha@lemm.ee
      link
      fedilink
      arrow-up
      16
      ·
      11 days ago

      Solange noch drüber gelesen wird? Die Leute generieren Abfall den sie gar nicht verstehen. Das können sie so lange lesen wie sie wollen. Erst wenn der Müll so genial klingt, dass man ihn selbst nicht mehr versteht, sind die Leute doch erst so richtig im Rausch. Es gibt keine kompetenten Personen die mit LLMs ihre Zeit verschwenden. Wenn man tatsächlich weiß was man schreiben will, dann tut man es einfach. Es ist unfassbar wie viele Leute auch mittlerweile echt glauben dieser LLM Output ist mit Fakten gleichzusetzen…

      • cows_are_underrated@feddit.org
        link
        fedilink
        arrow-up
        12
        ·
        11 days ago

        KI kann ein Helfer beim schreiben sein, ist jedoch, zumindest meiner Erfahrung nach, absolut nicht in der Lage die eigene Recherche und Schreibarbeit zu ersetzen.

      • CosmoNova@lemmy.world
        link
        fedilink
        arrow-up
        3
        ·
        edit-2
        10 days ago

        Mein Kommentar setzt nunmal voraus, das da jemand mit Ahnung drüber liest und einen Fachtext als Vorlage nimmt, statt ChatGPT einfach nur danach zu fragen und das erstbeste zu nehmen. Es ging mir dabei um den Grundsatz, also ob es theoretisch ein Problem sein muss und meine Antwort ist nein, es kann nützlich sein.

        Ich hätte grundsätzlich erst mal nichts gegen generierte Formulierungen. Hier geht es ja nicht darum Kunstwerke zu schaffen, sondern darum, Wissen zugänglich zu machen.

        Ich denke da eher in Richtung Zusammenfassungen von Fachtexten schreiben lassen über Themen, die man tatsächlich versteht. Als eine art Praktikanten-Assistent funktioniert das schon ganz gut. Denn auch wenn die Qualität oft nicht die beste ist und die Natur des Textes dem Thema manchmal nicht gerecht wird, sind die wichtigen Punkte meist alle drin und korrekt zusammengefasst.

        Auf die Probleme bin ich ja auch schon eingegangen, denn Theorie und Anwendung sind hier zwei ganz verschiedene paar Schuh, wie ich bereits schilderte.

        • gencha@lemm.ee
          link
          fedilink
          arrow-up
          1
          ·
          6 days ago

          Ich habe dein Kommentar auch eher als Aufhänger genommen. Ich wollte eigentlich gar nicht so sehr kritisieren. Danke trotzdem für die Erklärungen. Ich glaube aber du beschreibst trotzdem eher eine Hoffnung, nicht die Realität. Das wollte ich hervorheben

        • gencha@lemm.ee
          link
          fedilink
          arrow-up
          1
          ·
          6 days ago

          Das eine schließt das andere vollkommen aus. Es gibt dort Überschneidungen wo Menschen Illusionen haben. Ich sehe immer wieder wie Leute sich um Kopf und Kragen reden, weil sie glauben sie sind kompetent und lassen sich nur Arbeit abnehmen. Ganz oft sind die Leute einfach so thematisch schwach, dass sie glauben diese Arbeit ist überhaupt nötig, anstatt einfach mal den Kern zu erkennen.

          Statt ein Thema erklären zu können, generieren sie seitenweise Bullshit der irgendwie über das Thema redet.

          Statt Algorithmen zur Lösung zu entwickeln, lässt man sich einfach einen Haufen Code generieren der irgendwie das gleiche macht.

          Wenn du wirklich kompetent in einem Thema bist, und dir etwas von LLMs generieren lässt, dann korrigierst du jeden Satz.

          Warum sollten du überhaupt deine Zeit damit verschwenden, wenn du das gesamte Wissen hast?

          Die Leute wollen diesen Feedback Loop nur dann wenn sie eben nicht kompetent sind. Und dann wollen sie sich im Consumer Pleasing Bias des LLM einen runterholen. Das ist alles.

          • aktenkundig@discuss.tchncs.de
            link
            fedilink
            arrow-up
            1
            ·
            3 days ago

            Ich finde diese Aussage ist ähnlich überzogen, wie “Kompetente Übersetzer benutzen bei der Arbeit keine Hilfsmittel. Kein Wörterbuch, keine Rechtschreibprüfung, kein Thesaurus.”

            Warum sollten du überhaupt deine Zeit damit verschwenden, wenn du das gesamte Wissen hast?

            Kompetent ist nicht gleichzusetzen mit “das gesamte Wissen haben”. Niemand der in einem komplexen Feld arbeitet hat “das gesamte Wissen” darüber.

            I

        • gencha@lemm.ee
          link
          fedilink
          arrow-up
          1
          ·
          6 days ago

          Kann sein. Das kann man ja selbst oft schlecht beurteilen wie kompetent man tatsächlich ist

    • Mixel@feddit.org
      link
      fedilink
      English
      arrow-up
      9
      ·
      11 days ago

      Geb ich dir recht! Das einzige Problem was ich auch noch sehe ist das die Texte sich alle gleich anhören und selten viel Substanz kurz zusammenfassen sondern es lang gestreckt ist was meisten bei llm generierten texten der Fall ist

    • Kissaki@feddit.org
      link
      fedilink
      Deutsch
      arrow-up
      7
      ·
      edit-2
      10 days ago

      Ich bin etwas skeptisch ob ein Drüberlesen oder Prüfungsprozess ausreicht. Gerade auch weil auf Wikipedia nicht nur, oder ich nehme an nicht flächendeckend und ausreichend erfahrene und wissende, sorgfältige Freiwillige mitarbeiten dass das ausreichend sichergestellt werden könnte.

      Dazu verlinke ich den EN Artikel Why AI Can Push You to Make the Wrong Decision at Work.

      When the AI provided an incorrect result, researchers found inexperienced and moderately experienced radiologists dropped their cancer-detecting accuracy from around 80% to about 22%. Very experienced radiologists’ accuracy dropped from nearly 80% to 45%.

      Wikipedia ist mir zu wichtig um dort großflächig zu experimentieren, ohne klaren Aus- oder Rückweg, wenn man befürchten muss dass beim Prüfen nur 20-40 % der Falschaussagen bemerkt werden.

      Kann man vielleicht nicht so gleich setzen, aber macht mich zumindest skeptisch. Für Zuversicht bräuchte ich andere Argumentation oder Grundlagen. Text auf Fakten prüfen ist auch nicht unbedingt simpel. Ist ja jetzt vielleicht schon ein Problem.

      Ein Ansatz von jemand der sich auskennt schreibt mit einer KI könnte besser sein als wir akzeptieren KI Beiträge und prüfen das. Zum Beispiel.

      Interessanter könnte sein KI zum Prüfen und Melden von Verdachtsfällen zu nutzen.