In der Wirtschaft wird KI oft als strategische Chance gesehen, doch es gibt auch große Gefahren. Laut einer Allianz-Studie hat sich Künstliche Intelligenz zu einem der größten Geschäftsrisiken für Unternehmen weltweit entwickelt.
Bin mir nicht sicher, ob ich deine Beschreibung richtig verstanden habe, aber i.d.R. ist es so, dass Mathematik zwar schon an traditionelle Rechenlogik übergeben wird, aber das Parametrieren der Logik muss immernoch von der Autovervollständigungsmaschine generiert werden.
Also irgendwo beschreibt man eben, dass wenn Addition gemacht werden soll, dann die add.py aufrufen mit einem JSON im Format:
{"first_value":123,"second_value":456}
Aber wenn es eben “second_value” mit dem falschen Wert autovervollständigt, dann kommt die falsche Mathematik dabei raus.
Gut, und was eben auch passieren kann, ist dass die Anweisung, das Skript zu verwenden, dann doch gelegentlich nicht umsetzt wird. Also dass es dann doch auf eigene Faust versucht “1 + 1 =” zu autovervollständigen.
Und wenn dann irgendwas im Kontext herumgeistert, so dass es die wahrscheinlichste Autovervollständigung von dem Fall bezieht, wo mal “5 + 1 + 1 = 7” stand, dann kommt eben auch das Falsche heraus.
In dieser Detailtiefe habe ich der KI keine Anweisungen gegeben. Sondern, hier sind die Daten (Excel), gib mir die 5 Key Learnings. Und erstelle mir daraus eine PPT als nächsten Schritt. Also sehr Highlevel, wie uns die Data Analysts (und alle anderen Markschreier) die KI als Produktivitätsbooster verkaufen.
Ich habe mich inzwischen auch tiefer mit der Materie beschäftigt und wie man vernünftige Ergebnisse, nachvollziehbar in hoher Qualität bekommt. Mein Learning: Alles in viele kleine Einzelschritte runterbrechen, Zwischenprüfen (oder über mehrere andere KI‘s prüfen lassen) und dann weiter. Das Ganze ist dann aber sooooo aufwändig im Setup, dass du das nur bei häufigen Prozessen machen kannst und IT-Erfahrung benötigst. Also ein Quentchen besser als die ganze RPA Geschichte von vor 5 Jahren.
Ist für mich derzeit ein Gimmick für Nischen Use Cases, weil viel zu aufwändig im Setup.
Bin mir nicht sicher, ob ich deine Beschreibung richtig verstanden habe, aber i.d.R. ist es so, dass Mathematik zwar schon an traditionelle Rechenlogik übergeben wird, aber das Parametrieren der Logik muss immernoch von der Autovervollständigungsmaschine generiert werden.
Also irgendwo beschreibt man eben, dass wenn Addition gemacht werden soll, dann die
add.pyaufrufen mit einem JSON im Format:{ "first_value": 123, "second_value": 456 }Aber wenn es eben “second_value” mit dem falschen Wert autovervollständigt, dann kommt die falsche Mathematik dabei raus.
Gut, und was eben auch passieren kann, ist dass die Anweisung, das Skript zu verwenden, dann doch gelegentlich nicht umsetzt wird. Also dass es dann doch auf eigene Faust versucht “1 + 1 =” zu autovervollständigen.
Und wenn dann irgendwas im Kontext herumgeistert, so dass es die wahrscheinlichste Autovervollständigung von dem Fall bezieht, wo mal “5 + 1 + 1 = 7” stand, dann kommt eben auch das Falsche heraus.
In dieser Detailtiefe habe ich der KI keine Anweisungen gegeben. Sondern, hier sind die Daten (Excel), gib mir die 5 Key Learnings. Und erstelle mir daraus eine PPT als nächsten Schritt. Also sehr Highlevel, wie uns die Data Analysts (und alle anderen Markschreier) die KI als Produktivitätsbooster verkaufen.
Ich habe mich inzwischen auch tiefer mit der Materie beschäftigt und wie man vernünftige Ergebnisse, nachvollziehbar in hoher Qualität bekommt. Mein Learning: Alles in viele kleine Einzelschritte runterbrechen, Zwischenprüfen (oder über mehrere andere KI‘s prüfen lassen) und dann weiter. Das Ganze ist dann aber sooooo aufwändig im Setup, dass du das nur bei häufigen Prozessen machen kannst und IT-Erfahrung benötigst. Also ein Quentchen besser als die ganze RPA Geschichte von vor 5 Jahren.
Ist für mich derzeit ein Gimmick für Nischen Use Cases, weil viel zu aufwändig im Setup.