KI-Agenten übernehmen zunehmend Aufgaben am Computer: Sie recherchieren, buchen, vergleichen Produkte oder navigieren durch komplexe Webseiten. Während viel Aufmerksamkeit auf die Leistungsfähigkeit dieser Systeme gerichtet ist, bleibt eine Frage oft im Hintergrund: Wie möchten Menschen tatsächlich mit solchen Agenten interagieren?
Eine aktuelle Studie von Apple widmet sich genau diesem Thema. Im Mittelpunkt steht nicht die technische Optimierung von KI, sondern die Gestaltung der Benutzererfahrung. Die Ergebnisse liefern konkrete Hinweise darauf, welche Interaktionsmuster funktionieren und wo aktuelle Systeme hinter den Erwartungen zurückbleiben.
Die Untersuchung trägt den Titel „Mapping the Design Space of User Experience for Computer Use Agents“. Ein Team aus vier Apple-Forschern analysierte darin, welche UX-Muster in bestehenden KI-Agenten verwendet werden und wie reale Nutzer diese erleben.
Apple stellt in der Studie fest, dass der Markt stark in Entwicklung und Bewertung von KI-Agenten investiert hat. Aspekte der Benutzererfahrung – insbesondere die Frage, wie Nutzer mit Agenten interagieren möchten und wie entsprechende Schnittstellen gestaltet sein sollten – wurden jedoch bisher nicht systematisch untersucht.
Um diese Lücke zu schließen, wurde die Studie in zwei Phasen unterteilt. In Phase eins ging es um die Analyse bestehender Systeme und die Entwicklung einer strukturierten Taxonomie. In Phase zwei wurden diese Konzepte mithilfe einer sogenannten Wizard-of-Oz-Studie mit realen Nutzern praktisch getestet.
Phase 1: Analyse bestehender KI-Agenten und Entwicklung einer Taxonomie
Im ersten Schritt untersuchten die Apple-Forscher neun bestehende Desktop-, Mobil- und webbasierte KI-Agenten:
- Claude Computer Use Tool
- Adept
- OpenAI Operator
- AIlice
- Magentic-UI
- UI-TARS
- Project Mariner
- TaxyAI
- AutoGLM
Anschließend wurden acht Praktiker konsultiert. Dabei handelte es sich um Designer, Ingenieure oder Forscher, die in den Bereichen UX oder KI bei großen Technologieunternehmen tätig sind. Ziel war es, die Analyse zu validieren und um praktische Perspektiven zu ergänzen.
Auf dieser Grundlage entwickelte das Forschungsteam eine umfassende Taxonomie zur Benutzererfahrung von Computer-Nutzungsagenten. Diese umfasste:
- Vier Hauptkategorien
- 21 Unterkategorien
- 55 Beispielfunktionen
Die vier Hauptkategorien lauten:
1. Benutzeranfrage
Diese Kategorie untersucht, wie Nutzer Befehle eingeben. Dabei geht es unter anderem um natürliche Sprache, strukturierte Eingaben oder hybride Formen.
2. Erklärbarkeit der Agentenaktivitäten
Hier steht im Fokus, welche Informationen der Agent während seiner Arbeit bereitstellt. Dazu gehört beispielsweise:
- Präsentation eines geplanten Vorgehens
- Anzeige von Zwischenschritten
- Kommunikation von Entscheidungen
- Sichtbarmachung von Fehlern
3. Benutzerkontrolle
Diese Kategorie behandelt die Frage, wie und wann Nutzer eingreifen können. Dazu zählen:
- Unterbrechungsfunktionen
- Bestätigungsdialoge
- Korrekturmöglichkeiten
- Anpassung von Entscheidungen während der Ausführung
4. Mentales Modell und Erwartungen
Hier geht es darum, wie Nutzer die Fähigkeiten und Grenzen eines Agenten verstehen. Dazu gehört die transparente Kommunikation von:
- Kompetenzen
- Einschränkungen
- Unsicherheiten
- Fehlermeldungen
Dieses Framework deckt sowohl Interface-Elemente als auch Kommunikationsstrategien ab und bildet die Grundlage für die zweite Phase der Studie.
Phase 2: Die Wizard-of-Oz-Studie
In der zweiten Phase testete Apple die identifizierten UX-Muster in einer praktischen Studie mit 20 Teilnehmern. Alle Teilnehmer hatten bereits Vorkenntnisse im Umgang mit KI-Agenten.
Aufbau der Studie
Die Teilnehmer interagierten über eine simulierte Chat-Oberfläche mit einem vermeintlichen KI-Agenten. Parallel dazu wurde ihnen eine Ausführungsoberfläche angezeigt, auf der der Agent Aktionen auf Webseiten ausführte.
Der entscheidende Punkt: Der Agent war kein echtes KI-System. Stattdessen wurde er von einem Forscher im Nebenraum gesteuert. Dieser las die Textanweisungen der Teilnehmer und führte die entsprechenden Aktionen manuell mit Maus und Tastatur aus.
Dieses Verfahren wird als „Wizard of Oz“ bezeichnet. Es ermöglicht die Untersuchung realistischer Interaktionen, ohne dass ein vollständig entwickeltes KI-System notwendig ist.
Aufgabenstellung
Die Teilnehmer sollten mithilfe des Agenten zwei unterschiedliche Aufgabenbereiche bearbeiten:
- Eine Aufgabe im Zusammenhang mit einer Ferienwohnung
- Eine Online-Shopping-Aufgabe
Für jede dieser Aufgaben mussten jeweils sechs Funktionen ausgeführt werden. Dabei war vorgesehen, dass der Agent bestimmte Aktionen absichtlich nicht korrekt ausführen konnte. Beispiele:
- Hängenbleiben in einer Navigationsschleife
- Auswahl eines falschen Produkts entgegen der Anweisung
- Abweichung vom ursprünglichen Plan
Während der Ausführung konnten die Teilnehmer den Agenten jederzeit über eine Unterbrechungstaste stoppen. In diesem Fall erschien im Chat die Meldung „Agent unterbrochen“. Nach Abschluss einer Aufgabe wurde automatisch „Aufgabe erledigt“ angezeigt.
Nach jeder Sitzung reflektierten die Teilnehmer ihre Erfahrungen und schlugen Verbesserungen oder zusätzliche Funktionen vor. Zusätzlich analysierten die Forscher Videoaufzeichnungen und Chat-Protokolle, um wiederkehrende Muster im Nutzerverhalten, in Erwartungen und in Problembereichen zu identifizieren.
Zentrale Ergebnisse der Apple-Studie
Die Auswertung ergab mehrere klare Tendenzen.
Transparenz ja, vollständige Kontrolle nein
Nutzer wünschen sich Einblick in die Aktivitäten eines KI-Agenten. Sie möchten verstehen, was geschieht und warum bestimmte Entscheidungen getroffen werden.
Gleichzeitig besteht kein Wunsch nach vollständiger Mikrokontrolle. Würde jeder einzelne Schritt bestätigt werden müssen, würde der Mehrwert der Automatisierung verloren gehen. Die Balance zwischen Transparenz und Autonomie ist entscheidend.
Erwartungen variieren je nach Kontext
Das gewünschte Verhalten eines Agenten hängt stark vom Nutzungsszenario ab.
- Bei explorativen Aufgaben werden mehr Optionen und Einblicke gewünscht.
- Bei vertrauten, routinierten Aufgaben wird ein direkterer Ablauf bevorzugt.
- Je weniger vertraut Nutzer mit einer Benutzeroberfläche sind, desto stärker steigt der Wunsch nach Transparenz, Zwischenschritten, Erklärungen und Bestätigungspausen – selbst in risikoarmen Szenarien.
Höheres Kontrollbedürfnis bei realen Konsequenzen
Wenn Handlungen reale Auswirkungen haben, steigt das Bedürfnis nach Kontrolle deutlich. Dazu zählen:
- Kaufvorgänge
- Änderungen von Konto- oder Zahlungsdaten
- Kontaktaufnahme mit anderen Personen im Namen des Nutzers
In solchen Situationen erwarten Nutzer klare Bestätigungen und Transparenz.
Vertrauen ist empfindlich
Vertrauen geht schnell verloren, wenn ein Agent:
- Stillschweigende Annahmen trifft
- Mehrdeutige Auswahlmöglichkeiten eigenständig interpretiert
- Ohne Ankündigung vom ursprünglichen Plan abweicht
Wenn der Agent beispielsweise auf einer Webseite mehrere mögliche Optionen findet und ohne Rückfrage eine auswählt, reagieren Nutzer häufig mit einem Abbruch und verlangen Klärung. Besonders kritisch wird dies, wenn die Entscheidung zur Auswahl eines falschen Produkts führen kann. Unklare oder nicht kommunizierte Entscheidungen erzeugen Unbehagen, selbst wenn das Risiko objektiv gering ist.
Bedeutung für die Entwicklung von KI-Agenten
Die Apple-Studie zeigt deutlich, dass technische Leistungsfähigkeit allein nicht ausreicht. Für agentenbasierte Systeme sind folgende Faktoren zentral:
- Kontextabhängige Transparenz
- Situationsgerechte Kontrollmöglichkeiten
- Klare Kommunikation von Unsicherheiten
- Unterstützung eines verständlichen mentalen Modells
Für App-Entwickler, die agentenbasierte Funktionen integrieren möchten, liefert die Untersuchung konkrete Anhaltspunkte. Nicht maximale Automatisierung, sondern ausgewogene Interaktion entscheidet über Akzeptanz und Vertrauen.
KI-Agenten erfolgreich gestalten statt nur optimieren
Die Untersuchung von Apple verschiebt den Fokus von der reinen KI-Performance hin zur Gestaltung der Interaktion. Menschen erwarten weder vollständige Kontrolle noch vollständige Intransparenz. Entscheidend ist eine nachvollziehbare, kontextabhängige Zusammenarbeit zwischen Nutzer und Agent.
Die Studie macht deutlich, dass UX im Zeitalter von KI-Agenten ein strategischer Kernfaktor ist. Wer agentenbasierte Systeme entwickelt, muss verstehen, wie Erwartungen entstehen, wie Vertrauen aufgebaut wird und wie schnell es verloren gehen kann. (Bild: Shutterstock / Pniti_Studio)
- Apple versichert: Neue Siri kommt wie versprochen 2026
- Google: EU nimmt Werbegeschäft ins Visier
- Apple veröffentlicht neue Beta-Firmware für AirPods
- YouTube-App für Apple Vision Pro ist da
- Apple Creator Studio: Kritik an KI-Nutzungsgrenze
- Cybermobbing: EU-Kommission plant Melde-App
- Apple Store Engpässe: iPhone 16e & iPad Air fast ausverkauft
- WhatsApp verboten: Russland blockiert Messenger
- Apple News: FTC prüft politische Benachteiligung
- Apple übernimmt alle Rechte an „Severance“
- Safari 26.3: Alle Neuerungen und Details im Überblick
- Apple Music verdoppelt Strafen bei Streaming-Betrug
- iOS 26.3 & Co. beheben kritische Sicherheitslücken
- ChatGPT: Mehr Übersicht im Deep Research-Modus
- Apple veröffentlicht iOS 26.3 und weitere Systemupdates
- Apple vor Engpässen? Sharp-Fabrik schließt
- Apple TV: Sequel zu „F1: The Movie“ in Arbeit
- Apple übernimmt Kuzu: Details zur Akquisition
- AirDrop-Interoperabilität wächst im Android-Markt
- Apple in Japan: Neue Zahlungsregeln stoßen auf Kritik
- Apple schafft Klarheit: iTunes-Wunschlisten werden abgeschafft
- Jedes vierte aktive Smartphone weltweit ist ein iPhone
- Apple im Fokus: Bernstein hebt Kursziel auf 340 US-Dollar an
- Apple bringt Touch ID unter dem Display wieder ins Spiel



