<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>KI on EigenFunk</title><link>https://eigenfunk.de/tags/ki/</link><description>Recent content in KI on EigenFunk</description><generator>Hugo</generator><language>de</language><managingEditor>martin@eigenfunk.de (Martin Funk)</managingEditor><webMaster>martin@eigenfunk.de (Martin Funk)</webMaster><lastBuildDate>Wed, 17 Dec 2025 00:00:00 +0000</lastBuildDate><atom:link href="https://eigenfunk.de/tags/ki/index.xml" rel="self" type="application/rss+xml"/><item><title>Dopamin und Adrenalin im Software-Workflow: Wie KI die Balance verschiebt</title><link>https://eigenfunk.de/post/2025-12-17-ai-coding-workflow-optimierung/</link><pubDate>Wed, 17 Dec 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-12-17-ai-coding-workflow-optimierung/</guid><description>&lt;p>In der Softwareentwicklung gibt es diese besonderen Momente:
Der Test läuft endlich grün. Das Deployment klappt reibungslos. Der Commit geht sauber durch. In solchen Augenblicken durchströmt mich ein belohnender Dopaminschub – ein Gefühl von Erleichterung und Freude, das mich weiterträgt.&lt;/p>
&lt;p>Doch auf der anderen Seite steht die Kehrseite:&lt;br>
Nach dutzenden Versuchen will der Code immer noch nicht so, wie ich will. Ein unscheinbarer Bug blockiert das gesamte Feature. Oder schlimmer noch – ein Fix verschlimmert die Lage, und plötzlich ist etwas kaputt, das vorher funktionierte. Dann schaltet der Körper in Alarm: Adrenalin steigt, die Hände werden feucht, der Puls beschleunigt sich.&lt;/p></description></item><item><title>Das 5-Euro-Experiment: KI-Entwicklung auf Wegwerf-Servern</title><link>https://eigenfunk.de/post/2025-09-13-hiwire-das-5-euro-experiment/</link><pubDate>Sat, 13 Sep 2025 00:00:00 +0200</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-09-13-hiwire-das-5-euro-experiment/</guid><description>&lt;p>Oder: Wie ich Claude auf einem fremden Rechner austoben lasse&lt;/p>
&lt;h2 id="die-paranoia-freie-zone">Die Paranoia-freie Zone&lt;/h2>
&lt;p>Wir alle kennen das: Claude Code lokal installiert, aber ständig dieses mulmige Gefühl - was, wenn die KI durchdreht und mein System zerschießt? Was, wenn sie Dateien löscht, Konfigurationen durcheinanderbringt oder einfach mal spontan &lt;code>rm -rf /&lt;/code> ausführt?&lt;/p>
&lt;p>Die spielerische Lösung: Warum nicht &lt;strong>eine eigene Manege mieten&lt;/strong> für die KI-Akrobatik?&lt;/p></description></item><item><title>KI-basiertes Journaling: Mein Workflow mit SuperWhisper und Claude</title><link>https://eigenfunk.de/post/2025-07-28-ki-based-journaling/</link><pubDate>Mon, 28 Jul 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-07-28-ki-based-journaling/</guid><description>&lt;p>Ich experimentiere aktuell mit einem neuen Journaling-Workflow – KI-gestützt und sprachbasiert.&lt;/p>
&lt;p>Dieser Ansatz hilft mir, Informationen schneller festzuhalten und sie später leichter wiederzufinden – besonders in neuen, komplexen Projekten.&lt;/p></description></item><item><title>Platonische Embeddings und die universelle Geometrie semantischer Räume</title><link>https://eigenfunk.de/post/2025-05-27-platonische-embeddings/</link><pubDate>Mon, 26 May 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-05-27-platonische-embeddings/</guid><description>&lt;h2 id="einleitung">Einleitung&lt;/h2>
&lt;p>In der Welt der Sprachmodelle spielen &lt;em>Embeddings&lt;/em> eine zentrale Rolle. Sie übersetzen Texte in mathematische Vektoren, die semantische Bedeutung codieren. Eine neue Publikation auf &lt;a href="https://arxiv.org/abs/2505.12540">arXiv&lt;/a> bringt Bewegung in dieses Gebiet – nicht nur theoretisch, sondern auch mit Blick auf die Sicherheit von Vektordatenbanken.&lt;/p>
&lt;h2 id="was-sind-embeddings">Was sind Embeddings?&lt;/h2>
&lt;p>Sprachmodelle wie GPT zerlegen Texte in sogenannte &lt;em>Tokens&lt;/em>. Jedes Token wird durch ein festgelegtes Verfahren in einen Vektor transformiert – ein sogenanntes &lt;em>Embedding&lt;/em>. Wenn ein Satz aus \(N\) Tokens besteht, erhält man eine Matrix der Größe \(N \times M\), wobei \(M\) die Dimension des Embedding-Raums ist.&lt;/p></description></item><item><title>KI &amp; LLM-Wissensspeicher</title><link>https://eigenfunk.de/post/dossier-llm-ai-serie/</link><pubDate>Wed, 14 May 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/dossier-llm-ai-serie/</guid><description>&lt;h2 id="herzlich-willkommen-zur-ki--llm-serie">Herzlich willkommen zur KI &amp;amp; LLM-Serie&lt;/h2>
&lt;p>Diese Serie bietet einen umfassenden Überblick über die Entwicklung von Large Language Models (LLMs), deren theoretische Grundlagen, praktische Anwendungen und nützliche Tools. In dieser strukturierten Reihe findest du Informationen zu allen wichtigen Aspekten moderner KI-Technologien.&lt;/p></description></item><item><title>Vibe Coding: Quellen zu den zentralen Aussagen des FAZ-Artikels</title><link>https://eigenfunk.de/post/2025-05-09-vibe-coding-faz/</link><pubDate>Fri, 09 May 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-05-09-vibe-coding-faz/</guid><description>&lt;p>Der FAZ-Artikel &lt;em>&lt;a href="https://www.faz.net/pro/digitalwirtschaft/gadgets/vibe-coding-die-ki-programmiert-sich-selbst-110456369.html">„Vibe Coding: Die KI programmiert sich selbst“&lt;/a>&lt;/em> von &lt;a href="https://www.linkedin.com/in/marcusschwarze/">Marcus Schwarze&lt;/a> beleuchtet den aktuellen Stand KI-gestützter Softwareentwicklung. Hier eine kleine Quellensammlung zu den zentralen Aussagen und erwähnten Technologien:&lt;/p></description></item><item><title>Next-Gen KI-Entwicklung: Cursor, Windsurf, Lovable, Bolt und All-Hands im Überblick</title><link>https://eigenfunk.de/post/2025-05-07-next-gen-ki-tools/</link><pubDate>Wed, 07 May 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-05-07-next-gen-ki-tools/</guid><description>In der Welt der Softwareentwicklung entstehen derzeit neue, KI-gestützte Werkzeuge, die weit über klassische Autovervollständigung hinausgehen. Tools wie &lt;strong>Cursor&lt;/strong>, &lt;strong>Windsurf&lt;/strong>, &lt;strong>Lovable&lt;/strong>, &lt;strong>Bolt&lt;/strong> oder &lt;strong>All-Hands&lt;/strong> übernehmen eigenständig Teile der Softwareplanung, unterstützen bei Architekturentscheidungen und entlasten Entwicklerinnen und Entwickler massiv im Alltag.</description></item><item><title>Gradio vs. NotebookLM – Zwei unterschiedliche Ansätze mit KI</title><link>https://eigenfunk.de/post/gradio-vs-notebooklm/</link><pubDate>Thu, 24 Apr 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/gradio-vs-notebooklm/</guid><description>&lt;h2 id="einführung">Einführung&lt;/h2>
&lt;p>In diesem Beitrag werfen wir einen Blick auf zwei moderne Tools aus dem KI-Bereich: &lt;strong>&lt;a href="https://www.gradio.app/">Gradio&lt;/a>&lt;/strong> und &lt;strong>&lt;a href="https://notebooklm.google/">NotebookLM von Google&lt;/a>&lt;/strong>. Obwohl beide Technologien auf KI setzen, verfolgen sie unterschiedliche Ziele und richten sich an verschiedene Zielgruppen.&lt;/p></description></item><item><title>Wie erfahrene Entwickler mit KI-Coding-Agents großartige Ergebnisse erzielen können</title><link>https://eigenfunk.de/post/2025-04-04-kiessling/</link><pubDate>Fri, 04 Apr 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-04-04-kiessling/</guid><description>&lt;p>&lt;em>Quelle: &lt;a href="https://manuel.kiessling.net/2025/03/31/how-seasoned-developers-can-achieve-great-results-with-ai-coding-agents/">How Seasoned Developers Can Achieve Great Results with AI Coding Agents&lt;/a> von Manuel Kiessling&lt;/em>&lt;/p>
&lt;p>In den letzten Monaten hat Manuel Kiessling intensiv mit KI-gestützten Entwicklungstools experimentiert - sowohl in privaten als auch in beruflichen Projekten. Die Erfahrungen waren durchweg positiv, sowohl für ihn als auch für sein Team von Softwareentwicklern. Sie haben bessere Ergebnisse in kürzerer Zeit erzielt, und in vielen Fällen hat sich die Qualität ihrer Arbeit deutlich verbessert.&lt;/p></description></item><item><title>Tracing the Thoughts of a Large Language Model</title><link>https://eigenfunk.de/post/2025-03-28-anthropic-trace-thought/</link><pubDate>Fri, 28 Mar 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-03-28-anthropic-trace-thought/</guid><description>&lt;p>Tracing the Thoughts of a Large Language Model&lt;/p>
&lt;p>&lt;em>Eine Analyse der Forschungsarbeit von Anthropic über die Denkprozesse von KI-Systemen&lt;/em> Teil der &lt;a href="https://eigenfunk.de/post/dossier-llm-ai-serie/">KI &amp;amp; LLM-Serie&lt;/a>.&lt;/p>
&lt;p>&lt;a href="https://www.anthropic.com/research/tracing-thoughts-language-model">Originalartikel bei Anthropic&lt;/a>&lt;/p>
&lt;p>Der Artikel &amp;ldquo;Tracing the Thoughts of a Large Language Model&amp;rdquo; von Anthropic, veröffentlicht am 27. März 2025, beleuchtet die Bemühungen, die internen Prozesse großer Sprachmodelle wie Claude zu verstehen. Da diese Modelle nicht direkt programmiert, sondern auf umfangreichen Datensätzen trainiert werden, entwickeln sie eigene Strategien zur Problemlösung, die für Entwickler oft undurchsichtig bleiben.&lt;/p></description></item><item><title>Firecrawl – Webdaten für KI-Anwendungen</title><link>https://eigenfunk.de/post/2025-03-26-fire-crawl/</link><pubDate>Wed, 26 Mar 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-03-26-fire-crawl/</guid><description>&lt;p>&lt;a href="https://github.com/mendableai/firecrawl">Firecrawl&lt;/a> ist ein API-Service, der beliebige Webseiten crawlt und die Inhalte in sauberes Markdown oder strukturierte Daten umwandelt. Ideal für KI-Anwendungen, die auf hochwertige, gut strukturierte Webdaten angewiesen sind.&lt;/p></description></item><item><title>LLMs im Kontext: Grundlagen und Rolle in der KI-Infrastruktur</title><link>https://eigenfunk.de/post/2025-03-12-llm_im_kontext/</link><pubDate>Wed, 12 Mar 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-03-12-llm_im_kontext/</guid><description>&lt;p>Ein &lt;strong>LLM (Large Language Model)&lt;/strong> ist ein KI-Modell, das mithilfe großer Mengen von Textdaten trainiert wurde, um Sprache zu verstehen, zu generieren und in natürlicher Sprache mit Menschen zu interagieren. Bekannte Beispiele sind:&lt;/p></description></item><item><title>CoPilot für alles: Trainiert deine KI-Ersetzung einen Tastendruck nach dem anderen</title><link>https://eigenfunk.de/post/2025-03-07-ai-replacement-one-by-one/</link><pubDate>Fri, 07 Mar 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-03-07-ai-replacement-one-by-one/</guid><description>&lt;p>&lt;a href="https://substack.com/home/post/p-158101095">https://substack.com/home/post/p-158101095&lt;/a>&lt;/p>
&lt;h2 id="copilot-für-alles-trainiert-deine-ki-ersetzung-einen-tastendruck-nach-dem-anderen">CoPilot für alles: Trainiert deine KI-Ersetzung einen Tastendruck nach dem anderen&lt;/h2>
&lt;p>Jack Morris – 28. Februar 2025 | Teil der &lt;a href="https://eigenfunk.de/post/dossier-llm-ai-serie/">KI &amp;amp; LLM-Serie&lt;/a>.&lt;/p></description></item><item><title>MCP (Model Context Protocol)</title><link>https://eigenfunk.de/post/2025-02-19-model-context-protokol/</link><pubDate>Wed, 19 Feb 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-02-19-model-context-protokol/</guid><description>&lt;h2 id="mcp-modelcontext-protocol">MCP (ModelContext Protocol)&lt;/h2>
&lt;p>&lt;a href="https://www.anthropic.com/news/model-context-protocol">Weitere Informationen von Anthropic&lt;/a>&lt;/p>
&lt;p>Das &lt;strong>Model Context Protocol (MCP)&lt;/strong> ist ein von Anthropic entwickelter offener Standard, der es Entwicklern ermöglicht, &lt;strong>sichere, bidirektionale Verbindungen&lt;/strong> zwischen ihren Datenquellen und KI-gestützten Tools herzustellen. Ziel ist es, KI-Systeme effizient mit den benötigten Daten zu versorgen, um &lt;strong>bessere und relevantere Antworten&lt;/strong> zu generieren. Teil der &lt;a href="https://eigenfunk.de/post/dossier-llm-ai-serie/">KI &amp;amp; LLM-Serie&lt;/a>.&lt;/p></description></item><item><title>Semantischer Vektorraum: Grundlagen und Eigenschaften</title><link>https://eigenfunk.de/post/2025-02-19-semantischer-vektorraum-grundlagen/</link><pubDate>Wed, 19 Feb 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-02-19-semantischer-vektorraum-grundlagen/</guid><description>&lt;h1 id="semantischer-vektorraum-grundlagen-und-eigenschaften">Semantischer Vektorraum: Grundlagen und Eigenschaften&lt;/h1>
&lt;p>Ein &lt;strong>semantischer Vektorraum&lt;/strong> ist eine mathematische Darstellung, in der Wörter, Sätze oder andere Einheiten der Sprache als &lt;strong>Vektoren in einem mehrdimensionalen Raum&lt;/strong> abgebildet werden. Diese Vektoren repräsentieren die Bedeutung der sprachlichen Einheiten und ermöglichen es, semantische Ähnlichkeiten zwischen ihnen zu berechnen.&lt;/p></description></item><item><title>Essentielle Entwickler-Tools für LLM-Projekte</title><link>https://eigenfunk.de/post/2025-01-21-llm-dev-tools/</link><pubDate>Tue, 21 Jan 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-01-21-llm-dev-tools/</guid><description>&lt;p>Eine Sammlung essentieller Werkzeuge und Hilfsmittel, die die Entwicklung mit Large Language Models effizienter und produktiver gestalten. Teil der &lt;a href="https://eigenfunk.de/post/dossier-llm-ai-serie/">KI &amp;amp; LLM-Serie&lt;/a>.&lt;/p></description></item><item><title>KI-Ressourcen und Werkzeuge</title><link>https://eigenfunk.de/post/2025-01-15-ai-resources/</link><pubDate>Wed, 15 Jan 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-01-15-ai-resources/</guid><description>&lt;p>Eine Sammlung nützlicher Ressourcen und Werkzeuge für die Arbeit mit KI und maschinellem Lernen. Teil der &lt;a href="https://eigenfunk.de/post/dossier-llm-ai-serie/">KI &amp;amp; LLM-Serie&lt;/a>.&lt;/p></description></item><item><title>Zusammenfassung: Was wir 2024 über LLMs gelernt haben</title><link>https://eigenfunk.de/post/2025-01-01-simonwillson-on-llm/</link><pubDate>Wed, 01 Jan 2025 00:00:00 +0000</pubDate><author>martin@eigenfunk.de (Martin Funk)</author><guid>https://eigenfunk.de/post/2025-01-01-simonwillson-on-llm/</guid><description>&lt;blockquote>
&lt;p>Dies ist eine Zusammenfassung von Simon Willisons umfassendem &lt;a href="https://simonwillison.net/2024/Dec/31/llms-in-2024/">LLM-Jahresrückblick 2024&lt;/a>.&lt;/p>
&lt;/blockquote></description></item></channel></rss>