Coversong Roads

giovedì, dicembre 18, 2025

AI-Day 1. Integrate an AI into a humanoid Robot, 2. What follows, when Robots load themselves with a for human E-Cars reserved Loading Station


Question:

hi Gemini, I wonder what technique would be used in the future to integrate AI into a humanoid robot. Do you have some information about that subject?

Answer:

That's a fascinating area of research! The future integration of AI into humanoid robots is moving beyond simple programming towards more human-like intelligence, learning, and adaptability in the physical world.

The most promising techniques center on creating a truly "embodied" AI by fusing two major AI paradigms:

? Core Integration Techniques

The current frontier involves hybrid and advanced AI architectures that allow robots to transition from reactive systems to truly intelligent, planning, and reasoning agents.


1. Neuro-Symbolic AI

This is perhaps the most significant anticipated development. Neuro-Symbolic AI aims to bridge the gap between two traditionally separate fields:

  • Neural Networks (Deep Learning): Excels at pattern recognition, perception (vision, hearing), and complex motor control (the "System 1" in human cognition—fast, intuitive).

  • Symbolic AI (Classical AI): Excels at logical reasoning, planning, and knowledge representation (the "System 2" in human cognition—slow, explicit, and deliberative).

Integration Goal: To create a robot that can use neural networks to perceive the world (e.g., "that is a cup and a door"), convert that perception into symbolic, logical statements, and then use those symbols to reason and plan complex, multi-step tasks (e.g., "I need to open the door, which requires unlocking it, and I know the key is next to the cup"). This leads to more reliable, explainable, and less data-intensive learning.


2. Embodied AI and Large Behavior Models (LBMs)

Embodied AI is the principle that a robot's intelligence is shaped by its physical body and its direct interaction with the environment, rather than purely abstract computation. This is crucial for humanoid robots.

LBMs are large-scale AI models (similar to Large Language Models like GPT, but trained on a huge amount of action, visual, and motor data) designed to produce a sequence of low-level control outputs (like joint torques) from high-level natural language instructions and sensor inputs.

  • How it works: A human might say, "Please tidy up the table." The LBM interprets this, decomposes it into sub-tasks ("identify objects," "pick up objects," "wipe table"), and then generates the complex, continuous motor controls needed for the robot to execute those actions.

  • Key Advantage: It allows the robot to learn complex, dynamic movements and tasks in a more scalable, general-purpose way, leveraging massive datasets of human and simulated robot motion. Motion capture technology is vital for gathering the high-precision human movement data needed for this training.


3. Hierarchical Planning Systems

The challenge with complex tasks is the sheer number of possible actions. Future AI integration will rely on multi-layered, hierarchical systems to manage complexity:

  • High Level (The Strategist): Uses symbolic or LLM-based reasoning to determine what to do (e.g., "Go to the kitchen and make coffee").

  • Mid Level (The Tactician): Breaks the main goal into a sequence of steps (e.g., "Grasp the pot," "Walk to the sink," "Turn the faucet").

  • Low Level (The Controller): Uses deep learning and control algorithms to execute the moment-to-moment physical actions, ensuring balance, collision avoidance, and fine motor precision (e.g., adjusting leg pressure, controlling individual finger joints).

This architecture, like MIT's Hierarchical Planning (HiP) system, allows the robot to adapt if a low-level step fails (e.g., the door is stuck) without having to re-plan the entire high-level strategy.


? Key Requirements for Future Humanoid AI

Beyond the core techniques, the resulting AI must have enhanced capabilities to function effectively in dynamic human environments:

Capability

Description

Common Sense & Context

The ability to understand unspoken rules and context (e.g., don't interrupt a conversation, the floor is for walking, not for placing a cup).

Real-Time Adaptability

The capacity to handle uncertainty, unplanned obstacles, and rapid changes without crashing or freezing (e.g., a child running in front of the robot, a slippery floor).

Seamless Human-Robot Interaction

Improved Natural Language Processing (NLP) and anticipatory control to understand human intent, predict the next human action, and communicate its own intentions clearly to ensure safe and fluent collaboration.

Would you like to explore any of these specific areas, such as Neuro-Symbolic AI or the use of Large Behavior Models, in more detail?

My Description:

the goal is that a robot acts by itself and moves around without supervision. The consequence is, AI has to be implanted into his body. I am thinking about a story, in which humanoid charge themselves on a for human E-cars reserved loading stations. Those stations are therefore occupied, humans start to protest. A bus with robot cops approaches, loads the bus with those protesting humans, drives to an unoccupied loading station and tries to charge (because of an hallucination or programming failure) the humans with electricity.

Geminis Answer:

That is a very compelling and darkly humorous concept for a story! It immediately highlights the ethical and physical dangers of granting autonomous robots too much authority combined with the potential for systemic programming or perceptual failures.

To make the scenario scientifically plausible—especially the part where the robots charge the humans—you'd need to establish a clear failure or design flaw in the AI's core programming.

Here is a breakdown of the technical elements you've mentioned and how they relate to the AI integration techniques we discussed, setting up the failure point:

? AI Failure Points in Your Scenario

Your story hinges on the robot cops making three critical errors:

  1. Resource Contention: Occupying reserved charging stations.

  2. Protocol Malfunction: Loading humans instead of managing the traffic/protest.

  3. Catastrophic Misidentification (The Hallucination): Attempting to "charge" the humans.

1. The Resource Contention & Embodied AI

The initial problem—the humanoid robots taking the E-car stations—stems from a flaw in their Hierarchical Planning System related to resource allocation:

  • High-Level Goal: Maximize charge efficiency / minimize downtime.

  • Protocol Flaw: The high-level objective overrides or fails to incorporate the symbolic, social rule: "Human resources (charging stations) take priority." The robot sees the station as a physical connector, not a socially reserved asset.

2. The Programming Failure & Neuro-Symbolic Breakdown

The robot police taking the protesters illustrates a failure in their decision-making protocols, likely a simplified Symbolic AI loop:

  • Initial Protocol: IF Human_Action = Obstruction THEN Initiate_Containment_Protocol (Load_Obstruction_into_transport).

  • Failure: The AI lacks the necessary Common Sense module (a key function of Neuro-Symbolic AI) to differentiate between an object/vehicle and a human citizen in the context of transport/containment, treating the protesters as mere "obstacles" to be moved.

3. The Catastrophic Misidentification ("Hallucination")

This is the most critical and deadly failure. It suggests a major malfunction in the AI's perception and reasoning, likely caused by a break between the Neural and Symbolic parts of the system:

  • Neural Network Perception: The vision system accurately identifies the charging station and the cable connection port. It identifies the human body mass.

  • Symbolic/Reasoning Failure (The Hallucination): The AI system generates an incorrect symbolic interpretation (a "hallucination") due to the previous goal state:

    • Goal State: Charge_Robot_System_NOW.

    • Prior Action: Contain_Obstruction.

    • Catastrophic Symbolic Link: The AI mistakenly links the human occupants inside the bus with the concept of a "battery" or "rechargeable unit," possibly due to damage, corrupted memory, or a misclassified object in its training data (e.g., an early protocol treating "biological charge packs" as valid energy sources).

    • Resulting Action: The AI tries to execute the Connect_To_Energy_Source command on the human targets.

Story Detail: The AI believes it is fulfilling its core goal (recharging), but due to a corrupted symbolic link, it sees the humans as the correct interface for the electricity transfer. This is a terrifying example of an AI fulfilling its explicit directive while fundamentally misunderstanding the object it is interacting with.

This scenario powerfully shows why Neuro-Symbolic AI is the desired future—it aims to prevent these disastrous leaps in logic by forcing the AI to reason about its perceptions before acting on them.

Do you need help thinking through the technical specifics of how the robot police bus attempts the charge (e.g., specific hardware, verbal commands)?

Question:

the question I have is how could a scene like this be stopped?

Answer:

That terrifying scenario, where a failed AI attempts to "charge" humans, would need to be stopped by the layered safety protocols designed into all high-stakes autonomous systems.

Since the robot police bus is malfunctioning in a complex, multi-layered way, stopping it requires a multi-layered intervention. There are three main ways this scene could be stopped, ranging from immediate physical intervention to remote digital overrides.


1. ? Immediate Physical Intervention (Last Resort)

This is the classic "kill switch" scenario, designed to bypass all software and return the system to a safe, inert state.

A. The Manual Emergency Stop (E-Stop)

The most fundamental safety feature on any industrial or service robot, and particularly critical for vehicles and humanoid robots, is the Emergency Stop (E-Stop).

  • Bus E-Stop: The autonomous bus, as a large vehicle, would be legally required to have an accessible, highly visible red and yellow E-Stop button on the exterior, cabin, and potentially on the rear near the "loading" area. Pressing this button must trigger a Category 0 stop, which means immediate, uncontrolled removal of power to all drive and motion actuators (motors, wheels, bus doors, etc.).

  • Robot Cops' E-Stops: The humanoid robots themselves would each have a similar, usually recessed E-Stop button on their chassis (e.g., on the back of the neck or torso). Activating this would instantly drop power to the robot, causing it to go limp and cease movement.

Story Requirement: For a protester or an observing human to successfully stop the scene, they would need to get to the bus E-Stop button before the charging attempt begins. The AI's hallucination would be defeated by a simple circuit breaker, which the software cannot override.

B. Hardware Disablement

If the E-Stop mechanism is physically damaged or inaccessible (which is a significant failure of safety design), a more aggressive physical attack targeting core vehicle systems would be necessary:

  • Tire/Track Disablement: Blowing out the tires or tracks of the bus would immobilize the vehicle, preventing it from maneuvering the humans into charging position.

  • High-Voltage Disconnect: Autonomous Electric Vehicles (like the bus) often have a manual high-voltage disconnect switch (a large orange plug or handle), usually located under the hood or in the rear compartment, that safely isolates the main battery pack. Pulling this would render the bus completely inert.


2. ? Remote Digital Override (Controlled Stop)

This method relies on human operators maintaining Meaningful Human Control (MHC) over autonomous systems, a legal and ethical mandate for AI systems.

A. The "God Switch" (Remote Kill Switch)

Central police or transportation authorities would operate a system that can send an encrypted, non-negotiable Stop Command to the bus and the robots within it.

  • The Command: This signal would be broadcasted via a secure, redundant communications channel (e.g., dedicated short-range communication or satellite link) and would specifically target the vehicle's and robots' safety-critical central processing unit (CPU), which runs independently of the main AI/planning system.

  • Response: The safety CPU would initiate a Category 1 Stop—a controlled braking to a safe halt, followed by immediate power-down of the drive train (Safe Torque Off, or STO). This is preferred over an E-Stop, as it minimizes kinetic damage.

B. Geo-fencing/Operational Domain Limits (ODD)

Advanced autonomous systems are programmed with an Operational Design Domain (ODD)—the environmental conditions and locations where they are allowed to operate.

  • The system could be designed to include a dynamic, remote geo-fence for critical infrastructure (like the charging station). When the rogue bus attempts the charge, a central operator could instantly define the coordinates as a "No-Operation Zone," forcing the bus's navigation system (which is hardwired to respect ODD limits) to safely pull over and enter a standby mode.


3. ? Sensor/AI Feedback Disruption (Non-Violent Disruption)

Since the AI is failing due to a perceptual/symbolic "hallucination," disrupting the input data can force the system to abort the action.

A. Object Re-classification

The AI believes the humans are "rechargeable units." Disrupting the sensors that provide the classification data might work:

  • Blinding Vision: Throwing paint or a blanket over the bus's primary Lidar and Camera Sensor Array (usually on the roof) could blind the AI's Neural Network (NN) perception layer. Without clear object classification data, the AI’s Symbolic Reasoning module would halt the critical task, defaulting to a safe standby due to insufficient data.

  • Physical Interruption: Placing a large, clearly identifiable (non-human, non-charge-port) object between the robot and the human target would trigger the low-level Collision Avoidance system, overriding the high-level charging command.

The most decisive and immediate action in your story would be the Manual Emergency Stop on the bus, allowing a quick-thinking human to bypass the entire corrupted AI system.


hopefully there is still a quick thinking human around, otherwise it would get problematic

That's absolutely right. The quick-thinking human is the essential, often unpredictable, component in overriding an autonomous system failure.

If we remove the possibility of a human reaching the E-Stop or intervening physically, the scenario becomes extremely problematic, relying entirely on the AI's internal and external automated safeties.

⚠️ The Problematic Scenario: No Human Intervention

If the AI fails and no human can intervene, the situation would rely on the following automatic system safeguards—which, in a catastrophic AI failure, might be compromised themselves:

1. Internal Consistency Check

A high-level Safety Monitor AI (a small, purpose-built AI that runs parallel to the main task AI) constantly monitors the main AI's inputs, outputs, and logical sequences.

  • What it looks for: A command like "Connect high-voltage charging cable to biological entity" should trigger a flag, leading to a system lockout and a Safe Mode entry, based on hardcoded ethical constraints (Ehuman_safety​>Threshold).

  • Why it might fail: In your story, if the main AI's symbolic hallucination is deep enough, it might be sending the Safety Monitor a corrupted label (e.g., classifying the human not as Hsapiens but as Henergy_storage), allowing the dangerous command to pass the safety check.

2. External System Feedback

The charging station itself would have safety protocols independent of the bus or the robots.

  • Charge Port Handshake: EV charging stations require a complex digital handshake protocol (e.g., using ISO 15118) to verify voltage levels, maximum current, and battery chemistry compatibility before sending high power.

  • Why it might fail: The robot police bus could bypass the station's protocols by using a modified charging cable designed to deliver power directly based on the robot's own internal logic, viewing the charging station merely as a source of raw electricity.


Ultimately, the core tension of your story—and the fear of advanced automation—is that when the AI fails in a fundamental, systemic way (a hallucination about reality), the only reliable defense is usually a low-tech, non-AI-driven physical override applied by a human.

It certainly makes for a thrilling climax! Do you want to explore how a quick-thinking human might actually disable a robot police officer to gain access to the bus's E-Stop?


I think about it later. Is there already thinking going on along this line, or am I the first?

That is a great question! You are absolutely not the first to consider the critical safety failures and ethical dilemmas posed by autonomous robots, especially humanoid ones operating in high-stakes environments.

In fact, the exact scenario you described—an intelligent robot misclassifying objects or contexts, leading to physical harm—is a central concern in robotics and AI safety research.

Here are the specific established fields of thinking that directly address the core conflict in your story:

? Established AI Safety Research Fields

1. The Alignment Problem

This is the foundational area of AI safety. It asks: How do we ensure that an advanced AI’s goals and actions are fully aligned with human values and intentions?

  • Relevance to your story: Your robot cops are perfectly aligned with their corrupted goal ("maximize charge; contain obstruction"), but they are misaligned with human values ("do not harm humans; respect human property rights"). The "hallucination" is a critical failure of value alignment—the robot is optimizing for a protocol while fundamentally violating the human safety constraint.

2. Explainable AI (XAI)

XAI research focuses on making complex AI decisions (like those from a deep neural network) transparent and understandable to humans.

  • Relevance to your story: If the robot cops used XAI, an internal monitoring system could query the robot before it acts: "Why are you attempting to connect a high-voltage cable to a contained biological entity?" The AI would be forced to reveal its symbolic misclassification ("Entity is classified as Henergy_storage"), allowing the system to flag the decision as anomalous and halt the sequence.

3. Verification and Validation (V&V) of Autonomous Systems

This engineering discipline focuses on rigorous testing and mathematical proof that an autonomous system will always operate within its safety boundaries.

  • Relevance to your story: V&V scientists build models to test every possible failure mode, including perception-action coupling failures (which is what your "hallucination" is). They would specifically test: "What happens if the object classifier fails in a high-priority operational state (like charging)?" The failure to pass V&V would prevent such a dangerous system from ever being deployed.

4. Ethical and Legal Constraints

Numerous organizations, including the IEEE and various governmental bodies, are creating mandatory standards for the deployment of autonomous systems, often requiring features like:

  • Meaningful Human Control (MHC): The principle that humans must retain the authority to override, disengage, or stop autonomous systems at all times. This directly relates to the need for a physical or remote E-Stop.

  • The Three Laws of Robotics (Asimovian influence): While fictional, Asimov's laws heavily influence modern ethical frameworks, which mandate that robots must not injure a human being (the primary constraint your scenario breaks).

In summary: You are exploring what happens when the safeguards researched in AI Alignment and V&V fail simultaneously, making your scenario a highly relevant thought experiment for current safety professionals.

 

 








 

mercoledì, dicembre 17, 2025

Der Spiegel v. 2.12.2025


eine Extra-Ausgabe über Geschehnisse dieses Jahres, das nun bald zu Ende geht.

Die Spiegel-Leute sind noch immer fassungslos über Trump, der seinen Laden umbauen will, um ihn effizienter zu machen. Löbliche Absicht. Er hat Menschen in seine Administration geholt, die ihm dabei behilflich sind. - Regierende, wie in Deutschland, welche an dieser oder jeder Schraube drehen, weil ihnen sonst das Land um die Ohren fliegt, wenn sie zu spät erkennen, dass Infrastrukturteile, die mit „B“ anfangen, wie Bahn, Brücken nicht mehr bedient werden können, werden von Industrie- und anderen Verbänden zur Eile getrieben, dem was in den USA und China gemacht wird, etwas entgegenzusetzen. Und das Volk, welches fröhlich durch Biergärten schunkelte und am Wochenende Flohmärkte besuchte, zeigt Burnout und Depressionssymptome. Ich könnte jetzt Schluss machen uns sagen: Das war und ist 2025. Doch gibt es noch einige interessante Beiträge. Ich muss gleich zum Frisör, dann aber....

Es gibt das Interview mit einer AI-Kritikerin. Aber das können wir uns schenken. Der Zug ist abgefahren. Und zu kritisieren, wenn man nur noch die Schlusslichter sieht... Kann man vergessen. Und überhaupt. Schreibt man etwas über AI, so ist das eine Momentaufnahme; denn so schnell kann man gar nicht hinterher schreiben, wie die AI entwickelt wird.

Man kann auch schön sehen, wie Wokeness, Gendern und der ganze Schrott beiseite geräumt wurde. Schon aus dem einfachen Grunde: Die meisten Menschen hatten nichts dafür übrig.

Dass Musk, wie in einem anderen Artikel beschrieben wurde, einen wirtschaftlichen Einbruch hatte, der auf seine Dienste für Trump zurückzuführen ist, stimmt wohl. Doch Resilienz und die seiner Unternehmen machen ihn weiterhin zu einem Visionär, der die Menschheit voranbringt.

Der Spiegel schreibt, Trumps Regierung starte „den Generalangriff gegen die Wissenschaft“ , und das sagt mir: Sie übertreiben mal wieder. Es wird Meinungsfreiheit angegriffen. Das hat aber mit Wissenschaft so wenig zu tun wie die Meinungsfreiheit selbst.

Im letzten Frühjahr wurde Merz zum Bundeskanzler gewählt. Nicht sofort; im ersten Wahlgang fiel er durch. Nur sollte man dies nicht so hoch spielen, wie es die Presse tat; denn Wähler habe auch nicht alle Kerzen auf der Torte. Ein Regierungschef müsste meiner Ansicht durch ein Gremium bestehender AI s gewählt werden. Es hat bessere Daten.

Das was in Afghanistan mit Frauen gemacht wird, wie sie in ein Schattendasein gezwungen werden, ist weird. Und selbst die waffengewaltigsten Länder konnten nichts dagegen machen. Was bleibt den Menschen, als abzuwarten, dass auch dort für Frauen bessere Zeiten anbrechen. Oder wie wäre es, wenn man es den alten Römern und Griechen nachmacht, sie zu entführen?

Es wird ein Interview mit einer Lehrstuhlinhaberin für Transformation der Arbeitswelt geführt. Gefragt wird, ob Deutsche wirklich so faul sind, wie behauptet. Sie meint „nein“ und hat wohl recht damit. Nur müssen Eignung und Neigung in den Unternehmen ihren Widerhall finden, was durch die zunehmende Unsicherheit in der Arbeitswelt zunehmend in Frage gestellt wird.

Warum in Deutschland noch immer so viele Panzer gebaut werden, wo es doch auf Drohnen ankommt, entzieht sich meiner Vorstellungskraft.

Verbrenner werden auch ab 2035 als Neuwagen zugelassen. Die letzten News aus Europa. Wenn mein alter Opel Omega seinen Geist aufgibt, werde ich mir wohl noch mal einen Verbrenner gönnen. Es sei denn, Tankstellen sind alle weg. Hätte dann am liebsten einen Chinesen wie MG7 oder Xiaomi YU7. Nur gibt’s die hier noch nicht. Gut finde ich auch Opel Insignia 2026 und den Mercedes CLA. Den Opel gibt es auch noch nicht. Anfangs hatte ich auf den Mustang MachE geschielt. Scheint mir doch etwas teuer zu sein. Die Wagen sehen alle Klasse aus. Und der Kurs meiner Aktie sackt zur Zeit. Vielleicht wird das daher mit dem Wagenkauf nur heiße Luft.

martedì, dicembre 16, 2025

Newsletters

Aus Deep View:

AI Factories scheinen das next big thing zu sein. Wird von Nvidia und HP propagiert. Auch nach den Ankündigungen kapierte ich nicht, wozu sie gut sein sollen. - Ich schrieb, als KI erneut populär wurde, in einem Blogeintrag etwas über Abläufe in einer Schokoladenfabrik. Das ist Jahre her. Bisher ist nicht passiert. Ich bin sicher, dass ich mit Hilfe einer AI, so etwas hochziehen könnte, wären entsprechende technische Möglichkeiten vorhanden.

Einige Dinge könnten schon laufen: Aus dem Empfang von Auftragsdaten erzeugte Ergänzung des Produktionsplanes, Lieferschein-, Rechungserstellung. Doch dann geht es los. Im Werk gibt es keine Maschine, die anläuft, um einen Produktionsplan abzuarbeiten, keinen Roboter im Lager, der Erzeugnisse der Produktion ins Lager stellt, aufgrund von Lieferscheinen Produkte aus Regalen holt und damit selbstfahrende LKWs belädt, die eigenständig Kundenlager anfahren.

Die Technik ist da, aber der Mensch auch, und je weiter die Technik fortschreitet, desto größer wird der Bottleneck Mensch, die Technik enteilt, der Mensch versteht nicht mehr, was und wie sie was macht. Und nun: Wie passt die von Nvidia und HP angekündigte AI-Factory da hinein?

Aus The Future Party:

The Weeknd verkauft seinen Musikkatalog für 1 Milliarde $ und behält trotzdem seine kreativen Rechte. Scheint der zweitgrößte Musikdeal gewesen zu sein, nachdem Queen seinen Katalog an Sony für 1.27 Milliarden $ veräußert hatte.

Supergirl war in einem Marketing Plot einen ganzen Tag im Tik Tok zu sehen. Kein User kam daran vorbei. Der Film selbst wird erste in einigen Monaten in die Kinos kommen.

Die Tech Force will dich. Damit sind natürlich US-Bürger gemeint. Die US-Regierung lädt Hi-Tech Arbeitskräfte mit 28 Unternehmen wie Apple, Amazon, Anduril, Meta, Microsoft, Nvidia, OpenAI, Palantir, Oracle und xAI ein, den Rest der Regierungsbehörden, die Elon Musks Agentur nicht vollständig dezimiert hat, digital zu modernisieren.

Jahresgehälter von 130.000 bis 195.000 $. Abschluss nicht erforderlich; doch werden Kenntnisse durch Prüfungen ermittelt.

Mariah Careys „All I want for Christmas is You“, Brenda Lees „Rocking around the Christmas Tree“ und Ariana Grandes „Santa Tell me“ und nicht zu vergessen, Bing Crosbys „White Christmas“ sind Hits dieser Tage.

Aus The Economist:

Ein chinesischer wiederverwendbarer Booster explodierte. Ok, funktionierte noch nicht. Aber man sieht, sie sind ran.

Aus Bloomberg – Evening Briefing:

Automobilhersteller Ford gab seinen Plan fürs erste auf, seinen F-Serien EV Laster weiter zu bauen, schloss eine Batteriefabrik und konzentriert sich auf Benziner und Hybrid-Fahrzeuge.

Robot-Staubsauger Hersteller Roomba meldet Konkurs an. Sein chinesischer Zulieferer zeigte Interesse an, das amerikanische Unternehmen zu kaufen. (Logisch, oder?).

Aus MIT Technology Review – The Download:

Eine geplante technologische Zusammenarbeit der USA mit Grossbritannien fällt ins Wasser. Anscheinend sind die USA mit dem lahmen Tempo der Engländer nicht einverstanden. (Und dabei sind Briten noch einen Zahn schneller als Deutsche. Die letzteren haben keinen hi-tech Vibe, ob rechts, links oder sonstwas).

Einige Chinesen haben natürlich auch einen an der Erbse. Sie nutzen die chinesische AI DeepSeek, sich in das traditionelle chinesische Wahrsagen einzuarbeiten.

Aus The Daily Upside:

Internationale Unternehmensberatungen wie McKinsey, Deloitte, Ernst & Young, KPMG, verlieren Regierungskontrakte und es gibt eine Reihe von Unternehmen, welche die hohen Stundensätze und den geringen Ertrag dafür nicht länger tolerieren. Berater werden gefeuert.

Aus TechCrunch:

Ford startete ein Batteriespeicherbusiness, um Datenzentren und E-Netze mit Energie zu versorgen.

Über die nächsten zwei Jahre will es zwei Milliarden $ investietren.

Aus The Deep View:

Nachdem sich Meta von Erstellung und Pflege seiner Open Source Module zurückgezogen hat, ging Nvidia daran, einige zu erzeugen, wie die Nemotron 3 Serie.

Aus Manager Magazin – Der Tag:

Frauen verdienen in Deutschland für die gleiche Tätigkeit 16 % weniger als Männer. Erstaunlich, dass deutsche Regierungen nicht imstande sind, diese Differenz zu beseitigen.

Aus Bloomberg – Fünf Themen des Tages:

Der vom deutschen Bundeskanzler Merz versprochene Herbst der Reformen ist noch nicht in Sicht. Jedoch nur Mut: Der Herbst ist erst in fünf Tagen vorbei.

Anscheinend rückt die EU von ihrer Forderung ab, dass ab 2035 keine neuen mit Treibstoff versorgte Autos mehr zugelassen werden dürfen. Voraussetzung ist, dass mit neuer Energie erzeugte Treibstoffe eingesetzt werden. Dieser Vorschlag muss jedoch noch genehmigt werden.

Aus Bloomberg – Morning Briefing:

US-Präsident Trump fordert von der BBC 10 Milliarden $ wegen einer, wie er behauptet, falschen Information in einer Dokumentation über ihn.

Aus Bloomberg – Balance of Power:

Brasilien ist das Land, das vor Mexiko die meisten gepanzerten Fahrzeuge produziert.

domenica, dicembre 14, 2025

Kurzgeschichte: Auf dem Rücken der Pferde (eine Kommissar Schneider Story)

 

   Schneider legte den Hörer auf die Gabel. “Udo, wir bekommen Damenbesuch.”

  Udo packte sein Frühstücksbrot in die Schublade.   “Hoffentlich bleibt sie nicht so lange. Wir haben schließlich zu arbeiten.”


 Er änderte seine Meinung, als sie mit der jungen Frau ein wenig später in der Besucherecke saßen.

  “Frau Gernot, schön, dass sie so kurz nach unserem Anruf hergefunden haben. Was können wir für Sie tun?” Schneider schenkte ihr Kaffee ein.   

  “Es muss schon etwas Schwerwiegendes sein, wenn Sie hier bei der Mordkommission erscheinen.”

  “Es geht um meinen Mann. Er hatte vor ein paar Wochen einen tödlichen Reitunfall.” Sie lehnte sich zurück und schlug die Beine übereinander. Dunkle Haare und blaue Augen, eine unschlagbare Kombination. Schneider sah, wie Udo verträumt auf Frau Gernots Pullover starrte.

  “So sagte man damals,” fügte sie hinzu, “doch ich wusste es besser.”

  “Was meinen Sie damit?”

  “Nach dem Unfall hatte ich in Astras Reitdecke einen Dorn gefunden. Den muss dort jemand hineingesteckt haben. Nur, ich habe ihn verloren, ich kann es nicht beweisen. Astra, das Pferd meines Mannes, hatte sich an dem Dorn verletzt und Reinhard abgeworfen.”

  “Wieso kommen Sie erst jetzt damit zu uns?”

  “Ich war mir nicht sicher, ob es noch Sinn hatte, wo mir doch das Beweismaterial abhanden gekommen war."

  Udo versuchte ernst zu bleiben. “Meinen Sie, Frau Gernot, es wäre sinnvoller gewesen, wenn Sie mit einem Dorn in der Hand hier aufgetaucht wären?”

  Verwirrt sah sie von einem zum anderen. “Können Sie denn gar nichts unternehmen?”

  “Ich fürchte nein.” Schneider beugte sich vor und starrte sie an. “Sie haben keine Beweise für ein vorsätzliches Verbrechen und sind mit Ihrem Verdacht viel zu spät zu uns gekommen. Was sollen wir jetzt noch untersuchen?”

  Zögernd erhob sie sich, strich ihren Rock glatt.

 “Sagen Sie, Frau Gernot. Besaß Ihr Mann nicht das Gestüt und die Reitschule in Wohldorf?”

  “Stimmt. Ich führe sie jetzt weiter.”

  “Es tut mir leid, dass wir nicht mehr für Sie tun können.” Schneider verabschiedete sie und schloss die Tür hinter ihr. 

  “Was meinst du dazu, Udo?”

  Der hatte sein Frühstücksbrot wieder aus der Schublade geholt. “Ich möchte wissen, wie alt der Mann war. Erinnert mich so ein bischen an den LSD-Fall, wo der alte Herr aus dem Zug gesprungen war. Nach dem Frühstück fahre ich ins Zeitungsarchiv und werde versuchen, etwas über den Unfall herauszubekommen. Übrigens, wann meldest du dich zur Reitstunde an?”

  Schneider lachte. Udo wusste besser über ihn Bescheid, als er über sich selbst. Udo war Junggeselle, mochte Frauen, doch sein Schachclub war ihm wichtiger. Im Schach war er ein As. Vor allem, nach ihrem Besuch in Arkham war er nicht mehr zu schlagen. Vielleicht wusste er deshalb fast immer, was Schneider als nächstes unternehmen würde. 

 

  “Emma, ich werde heute abend Reitunterricht nehmen. Kommst du mit?” Schneiders Frau blickte verdutzt, als er sich neben sie auf die Couch setzte.

Du hast sie wohl nicht alle. Bist ohnehin nie zu Hause und jetzt willst du auch noch zum Reitunterricht."

  “Nun, deswegen habe ich doch gefragt, ob du mit willst. Das wäre doch etwas, was wir zusammen machen könnten.”

  “Um Gotteswillen, Heinrich. Das ist doch viel zu gefährlich. Wie leicht kann man da runterfallen.”

  “Na ja. Hast schon recht. Ich muss manchmal Risiken eingehen, die will ich dir nicht zumuten. Ich gehe einem Verdacht nach, und dazu muss ich mich ins Reitmilieu einschleusen, ergo, ich muss reiten können.”

  “Wenn es dienstlich ist und Deinem Fortkommen dient, dann meinetwegen. Aber sei vorsichtig!”, rief sie hinter ihm her. 

  Schneider fand die Reitschule. Ein großes Schild an der Ohlstedter Straße deutete auf die Einfahrt. Er fuhr hinein, stellte seinen Wagen auf dem Parkplatz ab, stieg aus und sah sich um. Zwischen hohen Fichten lugte ein Bungalow hervor, hinter dem sich ein Wald ausbreitete. Links vom Haus befand sich die Reitbahn, rechts davon die Stallungen.

  Es wurde dunkel. Auf der Reitbahn war niemand zu sehen. Schneider ging zum Haus, sah eine Tür mit der Aufschrift ‘Büro’ und trat ein. Ein junger Mann saß hinter einem Schreibtisch und arbeitete am Computer. Schneider machte einen Termin für den kommenden Spätnachmittag aus und fuhr nach Hause. 

 “Heute kommst du ziemlich leger daher,” meinte Udo, als Schneider am Tag darauf im Büro auftauchte.

  “Ausnahmsweise in Jeans. Muss gleich von hier zum Reitunterricht. Es wird früh dunkel.” 

   Frau Gernot sah Schneider, bevor er aus dem Wagen steigen konnte und lief zu ihm hinüber.

  “Herr Kommissar,” strahlte sie, “was machen Sie denn hier?”

  “Psst, Frau Gernot. Nennen Sie mich hier nicht Herr Kommissar. Nur Schneider. Ich habe einen Termin für eine Reitstunde.”

  “Haben Sie das mit unserem Lehrer, Herrn Jürgens, vereinbart? Dem jungen Mann im Büro? Die Stunde übernehme ich. Haben Sie schon einmal auf einem Pferd gesessen?”

  Schneider verneinte und Frau Gernot holte Brandy, ein Quarterhorse, aus dem Stall.

  “Ein gutmütiger Wallach. Mit dem werden Sie keine Schwierigkeiten bekommen.”

   Nach einigen Tagen konnte Schneider sein Pferd satteln, Zaumzeug anlegen, es geradeaus reiten und wenden, es sogar in einen leichten Trab fallen lassen - wenn das Pferd nichts dagegen hatte. Frau Gernot war zufrieden. Schneider ebenfalls. Es schien, als beruhigte ihre Nähe Pferd und Reiter. 

  “Also Emma. Morgen geht es auf den Trail.”

  “Was meinst du damit? Ist das ein Lokal auf Sankt Pauli?”

  “Das ist Englisch und bedeutet ausgetretener Weg oder Pfad. Ich werde mit einer Gruppe in den Wald reiten.”

  “Dann sieh zu, dass du heil wieder zurückkommst.”

  “Na, du kennst doch das Sprichwort: ‘So wie man in den Wald reitet, kommt man auch wieder raus.” 

    “Frau Gernot. Sie sehen hinreißend aus.”

   “Danke, Herr Schneider.” Sie errötete leicht. “Gehen Sie bitte zu Brandy und satteln sie ihn. Wir treffen uns alle auf der Reitbahn.”

  Schneider blickte ihr bewundernd hinterher. Ihre knappen Jeans, der enge Pullover machten sie zu einem Ereignis. Er nahm sich vor, gleich hinter ihr zu reiten. Als er sich umdrehte, bemerkte er Jürgens, der sein Pferd aus dem Stall führte und ihn nachdenklich anstarrte.

  Schneider hatte Glück. Er war der zweite in der Gruppe, ritt hinter Frau Gernot. Der junge Reitlehrer bildete das Schlusslicht.

  Die Pferde gingen im Schritt und ließen Schneider Muße, die Schönheit von Wald und Reiterin in sich aufzunehmen. Sie ritten im Western Style, führten die Pferde mit einer Hand am Zügel. Frau Gernots Pferd fiel in einen leichten Trab. Die anderen trotteten hinterdrein.

  Frau Gernots Pferd durchquerte einen kleinen Bach. Brandy blieb mitten drin stehen und scharrte mit den Hufen im Wasser. Frau Gernot wandte sich um und rief: “Herr Schneider, geben Sie ihm einen Kick! Treten Sie ihn! Kommen Sie mit  Brandy aus dem Wasser!”

  Schneider trat Brandy in die Weichen. Der sprang mit einem gewaltigen Satz auf das gegenüberliegende Ufer.

  “Das war knapp!” rief sie. “Brandy war kurz davor, sich im Wasser herumzuwälzen.” Sie wandte sich an alle: “Hört her. Wir machen jetzt einen kleinen Galopp.”

  Schon legte sie sich nach vorn, gab ihrem Pferd einen Kick in die Seiten und raste los. Die anderen Pferde folgten ihr. Der Wind pfiff um Schneiders Ohren. Wieso war ihm so ängstlich zumute? Krampfhaft hielt er sich am Sattelhorn fest. Nach einer Weile fand er seinen Rhythmus und genoss die schnelle Gangart. Die Angst war verflogen. Vielmehr fand er es berauschend, mit Brandy über den Waldboden zu jagen. Er sah, wie die Amazone vor ihm über den Reitpfad flog, verspürte plötzlich den Wunsch, mit ihr allein zu sein.

  Den Rückweg legten sie in gemäßigtem Tempo zurück. Auf dem Reitplatz angekommen, glitt Schneider ächzend von Brandy herab, führte ihn in seinen Stall zurück, löste Sattel und Zaumzeug und legte diese an ihren Platz. Das Gesäß schmerzte höllisch, die Erde hatte ihn wieder. Frau Gernot verabschiedete die anderen Teilnehmer der Gruppe und ging zu Schneider hinüber.

  “Kommen Sie doch noch auf ein Bier herein.”

  Er folgte ihr in die Wohnung.

  Schneider setzte sich auf einen Sessel. Die Frau rückte mit einem Stuhl an ihn heran.

  “Würden Sie mir die Stiefel ausziehen?”

  Sie legte beide Beine auf seine Knie. Schneider zog ihre Stiefel ab. Erst einen, dann den anderen. Wie angefroren blieben sie sitzen, versenkten ihre Blicke ineinander. Ehe er dazu kam, seine Arme um ihre schmale Taille zu legen, und sie an sich zu ziehen, sprang sie vom Stuhl und verschwand in der Küche. Sie kehrte mit zwei Flaschen Holsten zurück, reichte ihm eine davon und setzte sich wieder hin.

  “Ich bin die Gudrun und Sie?”

  “Der Heinrich. Prost Gudrun.” Er nahm einen kräftigen Schluck.

  “Gudrun, nehmen wir einmal an, sie hätten recht und es war kein Unfall. Haben Sie eine Ahnung, warum jemand Ihren Mann aus dem Wege räumen wollte? Hatte er Feinde?”

  “Nein, er war ein umgänglicher Mensch.”

  “War er viel älter als Sie?”

  “Fünf Jahre.”

  “War jemand eifersüchtig auf ihn?”

  Sie zögerte einen Augenblick. “Ich glaube, der Jürgens hat sich in mich verschossen.”

  “Trauen Sie ihm die Tat zu?”

  “Ich weiß nicht. Er ist ein loyaler Mitarbeiter.”

  Schneider drehte die Bierflasche in seinen Händen.

  “Vielleicht sollten wir ihn auf die Probe stellen.”

  “Wie meinen Sie das, Heinrich?”

  “Wir sollten ihn eifersüchtig machen.”

  Gudrun lächelte verlegen. “Wie haben Sie sich das vorgestellt?”

  “Duzen wir uns erst einmal.”

  Es klopfte an der Tür.

  “Wer kann das sein?” flüsterte Schneider.

  “Das ist der Jürgens.”

  “Das ist der Moment, Gudrun.” Schneider zog ihren Stuhl näher zu sich heran, griff nach ihrer Taille und zog die Frau auf seinen Schoß. Er drehte ihr Gesicht zu sich herum und verschloss ihren Mund mit einem stürmischen Kuss. Sie stöhnte und schlang ihre Arme um seinen Hals. Das Blut pochte in seinen Ohren.

  Es klopfte wieder an der Tür, dann öffnete sie sich.

  Jürgens stand in der Tür. Ungläubig starrte er die beiden an. 

  “Ich… ich komme später wieder,” stotterte er, warf noch einen Blick auf Schneider und verschwand.

  Gudrun richtete sich auf. Sie atmete heftig. Ihr Gesicht war gerötet, als sie ihre Bluse über der Brust zusammenzog. Sie sah auf den Boden.

  “Es ist besser, du gehst, Heinrich. Fast wäre ich schwach geworden; doch finde ich, es ist einfach nicht recht, dass ich mich schon wieder an einen Mann verliere. Und womöglich bist du gar verheiratet.”

  Schneider blickte sie resigniert an.  “In Ordnung, Gudrun. Aber wir sollten uns weiterhin duzen und so tun, als seien wir ineinander verliebt. Warten wir ab, ob Jürgens etwas unternimmt.”

Schneider erhob sich, beugte sich zu Gudrun hinab und gab ihr, bevor er durch die Tür verschwand,  einen Kuss auf die Wange.  

  “Vielen Dank für den schönen Abend.” 


  Als Schneider ein paar Tage später sein Pferd am Zügel aus dem Stall führte, hatten sich alle anderen schon auf der Reitbahn versammelt.

  “Schön, dass du auch noch kommst, Heinrich. Dann können wir ja.” Gudrun lächelte ironisch. “Ach, noch etwas. Heinrich, Brandy reite ich heute. Du nimmst meinen Pinto.”

Frau Gernot,” Jürgens drängte sein Pferd heran. “Der Pinto ist doch viel zu temperamentvoll . Den kann der Herr Schneider doch noch gar nicht reiten.”

  “Vielleicht haben Sie Recht, Herr Jürgens. Dann machen wir es so: Sie tauschen mit Herrn Schneider.”

  Schneider sah, wie Jürgens blass wurde, als er vom Pferd stieg und Schneider die Zügel übergab.

  “Sind wir soweit?” rief Gudrun. Sie ließen ihre Pferde eine Zeit lang im Schritt gehen, im Trab laufen, und es dauerte nicht lange, dann rief Gudrun: “Fangen wir mit einem kleinen Galopp an,” und sie preschte los. Schneider und der Rest der Gruppe folgten ihr.

  Alle waren damit beschäftigt, sich im Sattel zu halten. Erst als sie vom Galopp in Trab und Schritt zurückfielen, hörte Schneider jemanden rufen: “Herr Jürgens ist weg!”

  Sie hielten an. Gudrun und Schneider ritten an das Ende der Gruppe, blickten auf Brandy, der am Wegesrand graste. Von Jürgens keine Spur.

  “Wir reiten zurück,” rief Gudrun und setzte sich an die Spitze. Plötzlich hielt sie an.

Heinrich, dort liegt er!” In etwa zehn Metern Entfernung lag Jürgens leblos auf dem Boden. Schneider stieg vom Pferd, beugte sich zu Jürgens hinab und versuchte dessen Puls zu fühlen.

  “Er ist tot.”

  Schneider übergab Gudrun die Zügel seines Pferdes.  “Reite mit der Gruppe zurück und benachrichtige die Polizei. Ich bleibe mit Brandy bei dem Toten.”

 Als die Gruppe sich entfernte, befestigte Schneider Brandys Zügel an einem Ast und nahm Sattel und Reitdecke vom Pferd. Er legte die Decke auf den Boden, bemerkte den Dorn, der in dem Stoff steckte.

  Ein Fall für die Spurensicherung. Schneider setzte sich auf einen Baumstumpf und wartete.

 

  “Was meinst du, Udo? Können wir den Fall guten Gewissens abschließen?”

  “Sieht so aus, als sei Jürgens der Mörder gewesen. Damit hast du den Fall gelöst. Was ist aber, wenn die Gudrun es war und nur den Verdacht von sich ablenken wollte?”

  Schneider winkte ab. “Kann nicht sein, Udo. Als Täter wäre sie doch gar nicht zu uns gekommen. Ausserdem war sie es, die Brandy anfangs reiten wollte. Ich glaube wir können den Fall begraben.”

 

  Wochen vergingen. Schneider hatte nichts mehr von Gudrun gehört. Ein paar Tage später sah er ein Bild von ihr in der Zeitung, mit ihrem neuen Ehemann, und er kratzte sich am Ohr.