<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Luftfahrt on </title>
    <link>https://www.blodrevobog.de/tags/luftfahrt/</link>
    <description>Recent content in Luftfahrt on </description>
    <generator>Hugo -- 0.160.1</generator>
    <language>de</language>
    <lastBuildDate>Sun, 12 Apr 2026 00:00:00 +0000</lastBuildDate>
    <atom:link href="https://www.blodrevobog.de/tags/luftfahrt/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Was Piloten uns über KI-Agenten beibringen können</title>
      <link>https://www.blodrevobog.de/posts/was-piloten-uns-ueber-ki-beibringen/</link>
      <pubDate>Sun, 12 Apr 2026 00:00:00 +0000</pubDate>
      <guid>https://www.blodrevobog.de/posts/was-piloten-uns-ueber-ki-beibringen/</guid>
      <description>&lt;p&gt;&lt;img alt=&#34;Image Description&#34; loading=&#34;lazy&#34; src=&#34;https://www.blodrevobog.de/images/automatisierung-cockpit-header.jpg&#34;&gt;&lt;/p&gt;
&lt;p&gt;Ich saß mal in einem Seminar, und der Dozent fragte: Was ist das Gefährlichste an einem zuverlässigen System? Niemand antwortete. Er sagte: Dass du ihm vertraust.&lt;/p&gt;
&lt;p&gt;Das war Human Factors, irgendwann im zweiten oder dritten Semester. Luftfahrt- und Automatisierungsychologie, Mensch-Maschine-Interaktion. Ich fand das damals faszinierend, aber auch ziemlich weit weg von dem, was ich täglich tat. Jetzt, wo autonome Agenten Code schreiben und committen und deployen, denke ich an diesen Satz öfter als mir lieb ist.&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
