Ein Problem!

 

16.03.2025

 

Ein Problem, das man mit den ganzen KI-Sachen hat, ist, dass man Probleme mit KIs oft gar nicht als Problem erkennt. Man nimmt sie einfach nicht wahr. Wegen dieser Erkenntnis bzw. eher Unkenntnis werden die KI-Systeme auch nicht vollumfänglich und effektiv genutzt. Dieses Problem habe ich bei mir selbst schon mit den LLMs (Large Language Models) bemerkt.

Bei der Entwicklung und Nutzung von KI-Agents – also digitalen, oft autonomen und intelligenten Assistenten – wird dieses Problem noch sichtbarer bzw. erkennbarer, weil das Problem bei KI-Agents noch größer ist. Schon als die KI-LLMs einige Zeit für jeden zur Verfügung standen und ich selbst bereits Chatbots nutzte, merkte ich, dass ich trotzdem fast vollständig an den LLMs vorbeilebte. Ich nutzte sie einfach nicht wirklich, weil mein Bewusstsein für das Können und die Fähigkeiten der LLMs noch sehr gering war.

Auch heute tue ich mir noch schwer damit, klar zu erkennen, was LLMs für mich tun können, wie sie mir helfen und mir Wissen vermitteln können.
Goethe sagte oder schrieb einst: „Warum in die Ferne schweifen? Sieh, das Gute liegt so nah!“
Genau das ist unser Problem mit den KIs. Wir sehen und erkennen darin nicht das „Gute“ und „Nützliche“. Ich versuche immer noch, die LLMs als meine festen, ständigen und persönlichen Partner und Assistenten anzuerkennen und in mein Leben einzubinden, und bin mir immer noch nicht zu 100 % über das Können und die Fähigkeiten der LLMs bewusst. Deshalb mache ich auch jetzt noch in meinem Leben vieles viel schwerer, als es sein müsste.

LLMs (Large Language Models) sind hauptsächlich Bots, die der Konversation dienen, also Chatbots. Diese KI-Sprachmodelle verfügen über wesentlich umfangreicheres Wissen und sind in fast allen Bereichen bereits leistungsfähiger als wir Menschen – eine Entwicklung, die in Zukunft weiter zunehmen wird. Obwohl man nicht pauschal sagen kann, dass KIs Intelligent sind, führen ihre beeindruckenden Fähigkeiten in der Praxis oft zu genau diesem Eindruck. Dass KIs uns schon heute in vielen Bereichen überlegen sind, ist eine unbestreitbare Tatsache. Ihre Unterstützung für uns ist deshalb äußerst wertvoll und erweist sich häufig als entscheidender Vorteil („Gamechanger“) für uns.
Wer heute LLMs nicht als beständige Berater und persönliche Assistenten nutzt, läuft Gefahr, entscheidende Chancen zu verpassen.

KI-Agenten sind digitale Dienstleister, die eigenständig und automatisiert vielfältige Aufgaben für uns übernehmen, wodurch wir erheblich Zeit und Geld einsparen können oder auch Geldgewinne erzielen können. Wir können solche KI-Agenten oder sogar ganze KI-Mitarbeiter selbst erstellen und individuell auf unsere Bedürfnisse anpassen. Diese Agenten führen ihre Arbeiten oft vollkommen autonom und ohne direkten menschlichen Eingriff durch. Im Gegensatz zu Chatbots arbeiten sie häufig im Hintergrund, ohne dass eine explizite Konversation notwendig ist.

In Kombination mit den LLMs verändern KI-Agenten derzeit fundamental unsere Welt. Schon in naher Zukunft werden wir verschiedenste Roboter einsetzen, denen wir über KI-Agenten, Operatoren und Automatisierungstools spezifische Anweisungen geben. Technologisch gesehen sind nahezu alle Grundlagen vorhanden, um leistungsfähige humanoide Roboter und Drohnen zu bauen, die nahezu jede Aufgabe bewältigen können. Aktuell bestehen jedoch noch Herausforderungen bei der Entwicklung effizienter Akkutechnologien und verbesserter Datenspeicherlösungen. Zudem sind die Kosten für Roboter derzeit noch deutlich zu hoch. Allerdings könnte die industrielle Massenproduktion die Preise künftig erheblich reduzieren und so Robotik für den alltäglichen Einsatz auch für die breite Bevölkerung erschwinglich machen.

 

 

 

 

 

KI-Agenten

Agenten sind überall. Wir sehen sie nicht, aber sie sind hier und machen ihre Arbeit. Sie nehmen Aufträge an und führen diese aus. Sie suchen, speichern, informieren, kaufen, verkaufen, bestellen, beauftragen, überwachen, steuern autonome Fahrzeuge, Drohnen, Roboter und vieles mehr. Und das alles geschieht zumeist vollkommen autonom.

Ich wollte ja eigentlich warten, bis OpenAI seinen Operator für GPT-Plus-Nutzer freigibt. Das kann aber noch dauern. Gleichzeitig hatte ich damit angefangen, mir Gedanken zu machen, wie ich am besten Ideen für Agenten-Apps finden kann und wie ich diese dann entwickeln kann. Auch wie ich den Ablauf der Agenten, ihre Arbeitsweise und das gesamte Agentensystem klarer und deutlicher darstellen kann, hatte mich interessiert. Eine klare Übersicht über die Abläufe einer Agententätigkeit ist sehr wichtig, weil diese sehr komplex werden können und meist auch sind.

Man fängt ja oft mit der Entwicklung eines einfachen Single-Agentensystems an. Doch schnell kann aus einem einzelnen Agenten ein komplexes Multiagentensystem (MAS) werden. Mit diesen und ähnlichen Überlegungen beschäftigte ich mich in letzter Zeit immer wieder und zunehmend intensiver.

Jetzt habe ich angefangen, ein System zur Agenten-App zu entwickeln und einzurichten. Ich fange erst einmal auf meinem Windows-PC damit an. Dort habe ich ja Docker. Docker muss ich auch noch lernen, aber das ist nicht so schwer.

Auf Docker installiere ich, in einen neuen Container, die Agenten-App „n8n.
Mit dieser
Software werde ich lernen, Agenten zu entwickeln. Nach und nach werde ich mich immer tiefer einarbeiten, üben, trainieren und so auch neue Ideen finden.

Zur besseren Systemdarstellung der Agenten- und Prozessabläufe werde ich regelmäßig Dokumentationen schreiben und mit Draw.io „Fluss-, Prozess- und Struktogramme“ erstellen. Das habe ich schon ein wenig gelernt, muss es aber noch weiter üben. Zwischendurch teste ich auchLibreOffice Draw“ und andere.

Später werde ich die fertigen Agenten-Apps auf meinen Home-Netzwerkserver, einen Mini-PC, auslagern. Dieser wird dann rund um die Uhr laufen und somit werden auch meine KI-Agenten 24 Std/365 Tage lang arbeiten und mich mit wichtigen Informationen versorgen. Der Mini-PC verbraucht dabei nur sehr wenig Strom, während mein Windows-PC ein echter Stromfresser ist.

Ob ich n8n“ und „Draw.io später durch professionellere Alternativen ersetze, ist natürlich möglich. Doch das vorgenannte ist jetzt erst einmal der Anfang und meine Aufgabe für dieses Jahr.

Ich beginne also jetzt aktiv mit den KI-Agenten und werde hier regelmäßig darüber berichten.

 


 

Hier ganz einfache und kleine "n8n" und "Draw.io" Flowcharts:

 

Die Formen bei einem Flussdiagramm haben natürlich bestimmte Bedeutungen. Diese sind in der DIN 66001 festgelegt. "Rechteck" bedeutet Prozess, Aktion, Maßnahme. "Raute" = Verzweigung, Entscheidung usw.

Draw "Flussdiagramm" Screenshot:

ein weiteres Draw "Flussdiagramm" Screenshot:

Ein "n8n" Workflow Screenshot:

Ein weiteres "n8n" Workflow Screenshot:

n8n


04.03.2025

Im Moment richte ich noch den großen PC ein. Docker habe ich installiert, ebenso Docker Compose und Portainer. Einen Container für „n8n“ habe ich ebenfalls erstellt und das "n8n"-Core installiert.
Allerdings beschäftige ich mich noch nicht aktiv mit „n8n“. Zuerst möchte ich „n8n“ ordnungsgemäß konfigurieren. Dafür muss ich noch zahlreiche Integrationen, Erweiterungen und Module für „n8n“ sowie im n8n-Container installieren – etwa für Kommunikation, E-Mail, Datenbanken, Speicher, KIs, Automatisierungen, OpenAI-GPT-Nodes und weitere Komponenten.
Anschließend muss ich lernen, die einzelnen Systeme und das komplette System umfassend zu verstehen und korrekt anwenden zu können. Mein Wissen ist hier noch sehr eingeschränkt. Allerdings ist mein PC umfangreich mit Video-Tutorials und Textanleitungen zu „n8n“, „Docker“ und aktuellen Themen bestückt. Deshalb bin ich zuversichtlich, dass ich mich einarbeiten kann und werde.
Bei der Installation aller Komponenten habe ich zwar noch Schwierigkeiten, aber ChatGPT, Grok und DeepSeek unterstützen mich dabei effektiv. Letztlich werde ich es wohl schaffen, denke ich. Sobald alles eingerichtet ist, beginne ich mit der praktischen Arbeit in „n8n“. Ohne die drei LLMs wäre ich aufgeschmissen gewesen und hätte wahrscheinlich bereits aufgeben.

Der Windows-PC dient mir als Arbeits- und Entwicklungsrechner. Im April werde ich den Netzwerkserver-Mini-PC einrichten, konfigurieren und in Betrieb nehmen. Auf diesem Mini-PC sollen dann alle fertigen Anwendungen weitgehend autonom rund um die Uhr laufen – 24 Stunden am Tag, 365 Tage im Jahr. Dabei muss ich beim Mini-PC fast dieselben Schritte wie beim Windows-PC durchführen, nur halt nicht auf einem Windows-System, sondern auf und für ein Debian-Linux-System. Parallel dazu optimiere ich die Hardware beider Systeme und ergänze benötigte Komponenten für Verbindungen und Interaktionsfähigkeiten zwischen den PCs und nach außen.
Sobald diese Grundlagen geschaffen sind, kann ich mich auf inhaltliche Projekte konzentrieren: KI-Agenten-Entwicklung, Automatisierungsprozesse, Home Assistant, Smart-Home- und IoT-Lösungen sowie weitere Anwendungen.

Da ich
ja immer chronisch pleite bin, plane ich, mit meinen XRP-Ripple-Coins durch Trading Gewinne zu erzielen oder den Wert anderweitig zu steigern. Dafür werde ich versuchen, eine KI-Trading-App zu entwickeln. Die App wird dann beispielsweise automatisch große Datenmengen aus dem Internet ermitteln, auswerten, bewerten und Prognosen erstellen. Dann kann die App auch nach Vorgaben und Bestätigung eigenständig Tradings vornehmen. Ich habe mir aber noch keine Gedanken zu so einer App gemacht. Das kommt erst noch, nachdem beide PCs und alles andere komplett eingerichtet sind und erwartungsgemäß laufen.
Das mache ich dann nicht, um Geld für mich zu gewinnen, das mache ich der App und dem Spaß wegen! Sind die XRP vielleicht mal verloren, sind se halt weg. Ich versuche das aber!