Vertreter:innen aus der Wissenschaft oder der Zivilgesellschaft waren in dem Gremium nicht vertreten.
Warum wundert mich das nicht?
Vertreter:innen aus der Wissenschaft oder der Zivilgesellschaft waren in dem Gremium nicht vertreten.
Warum wundert mich das nicht?
Finde ich total sinnvoll, aber was hat das mit KI zu tun?
Ja, echt, wenn’s keinen Beurteilungsspielraum gibt, dann löst man das am besten mit klassischen Algorithmen. Damit hätte man vor einem halben Jahrhundert schon anfangen können.
Mit KI kannst du das Fördergeld deinem Kumpel geben, der auch keine Erfahrung mit dem Thema hat, weil KI ja für alle so neue Technik ist, da ist es halt schwer zu sagen wer da Ahnung hat (Spoiler, ist es nicht).
KI kann improvisieren, wenn die Regeln nicht ganz klar als solche benannt werden können, oder um schnelle Entscheidungsvorlagen zu formulieren. Teilweise reichen da kleine Sprachmodelle für aus. Es ist oft ein kleines, nettes Werkzeug, um die Prozesssutomatisierung nochmal zu versuchen.
Edit: Ja ich sehe ein, dass die Wortwahl gar keinen Spielraum zulässt und damit mein Kommentar hier falsch ist. Allerdings ist euer pauschaler KI-hate genauso unangebracht wie pauschal KI für alles einzusetzen. Es gibt sehr gute Prozesssutomatisierungen mittels KI. Der Begriff „KI“ ist übrigens nicht falsch, nur etwas generisch.
Wenn Regeln nicht (algorithmisch) formulierbar sind, dann handelt es sich ja offensichtlich nicht um
Stimmt :)
KI bzw. der sauberere Begriff, für was damit wohl gemeint ist, LLM ist ne super Schreibhilfe, aber wenn man LLMs entscheiden lässt, kann dabei alles mögliche passieren
Nicht wirklich. Dafür verpackt man das LLM dann wieder umständlich in Regeln. Funktioniert aber gut für nachvollziehbarkeit und eingeschränkte Auswahlen von vorgegebenen Alternativen, oder strukturierten Ausgaben
Da kann ich nur eingeschränkt zustimmen. Bei LLMs handelt es sich um Modelle, die einem Zufallsprozess unterworfen sind. Man kann noch so viele Regeln/Einschränkungen drumherumbasteln, aber es wird immer die Möglichkeit für komplett falsche Antworten bleiben. Gerade was die Nachvollziehbarkeit betrifft, würde ich garkein Vertrauen in LLMs setzen. Die können eine Erklärung ausgeben, wo die Erklärung selbst und das Ziel der Erklärung nicht übereinstimmen. Wo ich dir voll zustimmen kann, ist, dass LLMs nicht schlecht darin sind (je nach Komplexität) aus vorgegeben Alternativen zu wählen. Dann taugt das eher als Hilfe, aber weniger als Automatisierung.
Wenn Regeln nicht ganz klar benannt sind, dann hat das in der Regel eben genau den Sinn, einen Ermessenspielraum zu lassen. Wenn man das dann mit einer “KI” entscheidet, kann man auch gleich würfeln.
Bitte nicht.
https://www.golem.de/news/claude-agent-ki-automat-verschenkt-waren-fuer-hunderte-dollar-2512-203439.html
Wer sagt, dass KI ein Geschäft führen könne?
Menschliche Geschäftsführer können das oft auch nicht. Das dürfte sogar einer der wenigen Berufe sein, den man durch ein LLM ersetzen könnte, ohne dass das jemand merkt…
(Das soll jetzt kein Argument für LLMs sein)
Führ mal bitte aus wie du das anstellen würdest. Ich sehe täglich live wie KI (nicht nur LLMs) in unterschiedlichsten Unternehmen und Behörden zum Einsatz kommt und kann das nicht so nachvollziehen.
BWL-Justus durch JustusGPT ersetzen und fertig. Man kriegt genau das gleiche zusammenhanglose dumme Zeug, das sich in einem Satz dreimal widerspricht, niemand merkt, dass das jetzt eine Maschine macht.
Ah, Du Arme Wurst hast einen Frust auf alle Geschäftsführer. Jetzt ergibt alles einen Sinn. Dann wird die Lösung wohl sein, dass alle Menschen Angestellte sind und und nur der Staat alles leitet :D
Sollte eher ein anekdotisches Beispiel dafür sein, was passieren kann, wenn man im Sinne der Prozessautomatisierung das LLM einfach alles machen lässt.