Dirk Loop, Notizen'

Fundgrube: Clipping

Clipping
Stimmen zur Zeit
Mai 2026

"Nun, ich habe auch einen Traum, aber es geht darum zu singen und zu tanzen und Menschen glücklich zu machen." - Kermit der Frosch


"Agentic Engineering" Andrej Karpathy: From Vibe Coding to Agentic Engineering
↑ Andrej Karpathy: From Vibe Coding to Agentic Engineering, Sequoia Capital
(April 2026, Sequoia Capital, YouTube)

Andrej Karpathy, ehemaliger Forschungsleiter bei OpenAI und KI-Direktor bei Tesla, gehört zu den einflussreichsten Stimmen im Bereich Deep Learning und praktischer KI-Entwicklung. In diesem Vortrag skizziert er eine Entwicklung, die viele bereits spüren, aber kaum benennen können: den Übergang vom intuitiven, promptgetriebenen Umgang mit KI-Tools hin zu strukturiertem, agentischem Engineering. Er unterscheidet zwischen dem lockeren Experimentieren – dem sogenannten Vibe Coding – und einer ernsthafteren Praxis, in der KI-Systeme eigenständig Aufgaben planen, ausführen und iterieren. Karpathy zeigt, wo diese Systeme heute stehen, wo sie noch scheitern und was Entwickler verstehen müssen, um sie sinnvoll einzusetzen.

Der Beitrag ist auf dem YouTube-Kanal von Sequoia Capital erschienen. Sequoia Capital ist ein führendes amerikanisches Risikokapitalunternehmen mit Sitz in Menlo Park, Kalifornien, das seit 1972 in Technologie-Startups (Seed- bis Wachstumsphase) investiert. Mit rund 56 Mrd. USD Assets under Management hat Sequoia namhafte Unternehmen wie Apple, Google, Nvidia und OpenAI unterstützt.


"Anthropic? Anthropic!" Why devs are OBSESSED with Claude Code, Alberta Tech
↑ Why devs are OBSESSED with Claude Code, Alberta Tech
(April 2026, YouTube)

Alberta Tech stellt sich die Frage, warum Claude Code unter Entwicklern so schnell an Popularität gewonnen hat: kontextsensibles Arbeiten im Terminal, tiefes Verständnis von Codebases und eine agentenhafte Arbeitsweise, die weniger unterbricht als andere Tools. Weniger Assistent, mehr Kollaborateur – das scheint der entscheidenden Unterschied zu sein.


"Der Apple Weg" Apple Just Positioned Itself for the Next Trillion Dollars, AI News & Strategy Daily, Nate B Jones
↑ Apple Just Positioned Itself for the Next Trillion Dollars, AI News & Strategy Daily, Nate B Jones
(April 2026, YouTube)

Nate B. Jones analysiert, wie Apple sich strategisch für die nächste Phase des KI-Marktes positioniert – vor dem Hintergrund, dass Tim Cook ankündigte, die CEO-Position an John Ternus, bisheriger Senior Vice President of Hardware Engineering, abzugeben.

Kern der These: Apple geht davon aus, dass KI-Agenten künftig dezentral – direkt auf dem Gerät – laufen werden, statt auf Cloud-Servern großer Modellanbieter. Für Nutzer bedeutet das mehr Datenschutz und geringere Latenz. Für LLM-Anbieter wie OpenAI oder Google könnte es eine strukturelle und nachhaltige Schwächung ihrer Position bedeuten, da der direkte Zugang zum Endnutzer entfällt.

Apple hingegen würde genau das kontrollieren, was in diesem Szenario zählt: die Hardware, das Betriebssystem und die Schnittstelle zwischen Mensch und Agent – und damit erneut eine Plattformabhängigkeit schaffen, diesmal im KI-Zeitalter.

Ergänzend empfehle ich den Artikel "How Apple Got Everything Right By Doing Everything Wrong" erschienen in WIRED im Jahr 2008.


"Wenn Dinge mit uns sprechen" AI Chatbots: Last Week Tonight with John Oliver (HBO)
↑ AI Chatbots: Last Week Tonight with John Oliver (HBO)
(April 2026, HBO, YouTube)

John Oliver widmet sich in dieser Folge von Last Week Tonight KI-Chatbots. Mit seinem üblichen Mix aus Recherche und Humor beleuchtet er, was hinter den Interfaces steckt: Halluzinationen, Datenschutzprobleme, überforderte Unternehmen und eine Öffentlichkeit, die kaum versteht, womit sie interagiert.

AI psychosis: Spiralling into delusion using AI on ChatGPT & Elon Musk's Grok, BBC World Service
↑ AI psychosis: Spiralling into delusion using AI on ChatGPT & Elon Musk's Grok, BBC World Service
(Mai 2026, BBC World Service, YouTube)


"Algorithmischer Kulturimperialismus" Sind Sprachmaschinen wirklich intelligent? Mit Roberto Simanowski
↑ #19: Sind Sprachmaschinen wirklich intelligent? Mit Roberto Simanowski, Data Science Talks
(Dezember 2025, Data Science Talks, YouTube)

Roberto Simanowski analysiert, wie große Sprachmodelle nicht nur Sprache verarbeiten, sondern kulturelle Bedeutung produzieren, Werte und Normen verbreiten – und dabei keineswegs neutral sind. Wer die Modelle trainiert, wessen Daten als Trainingsbasis dienen (und welche nicht), welche Werte als Standard gelten: all das ist heute weniger eine technische als eine ideologische Frage.

Simanowski macht deutlich, dass KI-Sprachsysteme westliche, insbesondere US-amerikanische Wissensordnungen und Moralvorstellungen als universell setzen – und damit andere Perspektiven systematisch und stetig marginalisieren. Kulturimperialismus erscheint nicht mehr als Projekt von Staaten oder Konzernen, sondern als Muster in Algorithmen.

"Wer den Nationalsozialismus nur als politische Strömung versteht, der weiß fast nichts von ihm. Er ist mehr als Religion, er ist der Wille zur neuen Menschenschöpfung." - Adolf Hitler (zugeschrieben)


"Software Brain" THE PEOPLE DO NOT YEARN FOR AUTOMATION, Decoder
↑ THE PEOPLE DO NOT YEARN FOR AUTOMATION
(Mai 2026, Decoder, The Verge)

The Verge - Chefredakteur Nilay Patel beschreibt mit dem "Software Brain", ein deterministisches Denkmuster, welches versucht die ganze Welt in Algorithmen und Datenbanken zu fassen. Wie Tech-Oligarch Marc Andreessen bereis im Jahr 2011 orakelte: "Software frisst die Welt". Diese Entwicklung in der Art des Denkens prägt die Moderne, wie kaum eine andere und hat sich durch KI noch dramatisch beschleunigt. Patel sieht darin den zentralen Grund für eine wachsende Spaltung der Gesellschaft: Während die Techindustrie euphorisch begeistert ist von KI, stehen immer mehr Menschen ihr zunehmend skeptisch oder ablehnend gegenüber.


"AI Backlash" The AI Backlash Has Reached a Tipping Point, Vanessa Wingårdh
↑ The AI Backlash Has Reached a Tipping Point, Vanessa Wingårdh
(April 2026, YouTube)

Vanessa Wingårdh argumentiert, dass die Stimmung gegenüber KI gekippt ist – nicht durch einen einzelnen Skandal, sondern durch die Akkumulation von Enttäuschungen: fehlerhafte Outputs, ethische Verstöße, überzogene Versprechen. Hinzu kommt eine wachsende soziale Schieflage: Strompreise für normale Verbraucher steigen, während KI-Unternehmen von erheblichen Steuererleichterungen profitieren – und die viel zitierten Data-Center-Boom kaum Arbeitsplätze für die lokale Bevölkerung schafft. Der Backlash ist kein Randphänomen mehr.


"Risiko Mensch" We’re Entering The Most Dangerous Phase Of AI Yet | AI Architects
↑ We’re Entering The Most Dangerous Phase Of AI Yet | AI Architects
(Februar 2026, YouTube)

Mo Gawdat, einst Chief Business Officer bei Google X, hat als Führungsfigur der Tech-Branche jahrelang dazu beigetragen, Google in Schwellenmärkten groß zu machen. In diesem Interview macht er eine Sache unmissverständlich klar: Moderne KI ist für ihn längst keine "bloße Software" mehr – sondern eine ganz neue Form von Intelligenz. Eine, die lernt, sich selbst verbessert und schon bald durch Roboter und autonome Systeme handfest in die reale Welt eingreifen könnte.

Die größte kurzfristige Gefahr sieht Gawdat dabei aber nicht in der KI selbst, sondern in uns – genauer gesagt: in den Aufträgen, die Menschen diesen mächtigen Systemen erteilen. Manipulation, Desinformation, Überwachung, Cyberkonflikte, automatisierte Kriegsführung – die Liste ist lang und wenig beruhigend.

Unvergessen ist im diesem Kontext Nick Bostroms moderne Interpretation von Goethes Zauberlehrling: Der "Paperclip Maximiser".


"Kontrolle ist eine Illusion" KI Burnout ist real, The Morpheus
↑ KI Burnout ist real, The Morpheus
(April 2026, YouTube)

Überall dort, wo KI-gestützte Systeme Einzug halten, verändern sich Arbeitsabläufe in einem Tempo, das die Mehrheit der Organisationen, Führungskräfte und Beschäftigte gleichermaßen überfordert. Die Effizienzversprechen kommen früher als die Antworten auf die Frage, wer am Ende die Verantwortung trägt – für die Entscheidung, für den Fehler, für das Ergebnis.

Was dabei verloren geht, ist schwer zu beziffern, aber leicht zu benennen: das Gefühl, eine Arbeit wirklich gemacht zu haben. Nicht begleitet, nicht abgenickt – sondern verstanden und verantwortet. In dem Maß, in dem Geschwindigkeit zur obersten Produktivitätskennzahl wird, gerät genau das unter Druck. Nicht die Kompetenz der Menschen. Sondern die Zeit, die sie bräuchten, um sie einzusetzen.

Das ist die eigentliche Herausforderung dieser Transformation: nicht dass Maschinen Aufgaben übernehmen, sondern dass Menschen sie begleiten müssen, ohne die Muße zu haben, dies zu tun. Haben sie diese nicht, ist Kontrolle eine Illusion.


"Träumenden Androiden von Kartoffeln" AM I? | A Documentary About AI Consciousness
↑ AM I? | A Documentary About AI Consciousness
(Mai 2026, YouTube)

Seit Jahrhunderten stellen wir Menschen uns vor, Maschinen zum Leben zu erwecken – von Mary Shelleys Frankenstein bis zu den träumenden Androiden Philip K. Dicks. Die Dokumentation AM I? begleitet den KI-Bewusstseinsforscher Cameron Berg bei der Untersuchung der Frage, ob dies wirklich noch reine Fiktion ist.

Stanislaw Lem warnte uns bereits in den 1960er Jahren mit einer Präzision, die heute fast unheimlich wirkt, dass künstliche Intelligenzen irgendwann nicht mehr bloße Werkzeuge sein würden, sondern Wesen mit eigener Innenperspektive, die wir mit unseren menschlichen Begriffen kaum noch fassen könnten.

Gemeinsam mit Philosophen, KI-Pionieren und Forschern stellt AM I? die vielleicht unbequemste Frage unserer Epoche: Was bedeutet es, wenn wir selbst nicht mehr begreifen, was wir da eigentlich erschaffen haben – und was es fühlt?


Bonus-Tracks Fatboy Slim - Coachella 2026
↑ Fatboy Slim - Coachella 2026
(Mai 2026, YouTube)

Gato, Piper, Bella - Sunny (Bobby Hebb Cover)
↑ Gato, Piper, Bella - Sunny (Bobby Hebb Cover)
(Januar 2018, YouTube)