

Sollte eher ein anekdotisches Beispiel dafür sein, was passieren kann, wenn man im Sinne der Prozessautomatisierung das LLM einfach alles machen lässt.


Sollte eher ein anekdotisches Beispiel dafür sein, was passieren kann, wenn man im Sinne der Prozessautomatisierung das LLM einfach alles machen lässt.


Da kann ich nur eingeschränkt zustimmen. Bei LLMs handelt es sich um Modelle, die einem Zufallsprozess unterworfen sind. Man kann noch so viele Regeln/Einschränkungen drumherumbasteln, aber es wird immer die Möglichkeit für komplett falsche Antworten bleiben. Gerade was die Nachvollziehbarkeit betrifft, würde ich garkein Vertrauen in LLMs setzen. Die können eine Erklärung ausgeben, wo die Erklärung selbst und das Ziel der Erklärung nicht übereinstimmen. Wo ich dir voll zustimmen kann, ist, dass LLMs nicht schlecht darin sind (je nach Komplexität) aus vorgegeben Alternativen zu wählen. Dann taugt das eher als Hilfe, aber weniger als Automatisierung.


KI bzw. der sauberere Begriff, für was damit wohl gemeint ist, LLM ist ne super Schreibhilfe, aber wenn man LLMs entscheiden lässt, kann dabei alles mögliche passieren


Es sind aber auch immer die Menschen schuld, die diese Anweisungen ausführen oder auch indirekt solche Aktionen ermöglichen. Wäre Putin allein nach Kiew marschiert, müssten wir jetzt nicht mehr über ihn reden
Leider ja
https://www.kinoprogramm.com/kinofilm/melania-417085