Person überprüft adaptive Trainingsdaten auf einer Fitness-App auf dem Smartphone
Motivation 9 Min. Lesezeit

Wie künstliche Intelligenz dein Trainingsprogramm anpasst

Algorithmen passen Schwierigkeit, Volumen und Übungsauswahl anhand deiner Leistungsdaten an. Die Wissenschaft hinter adaptiver Trainingssteuerung.

Die meisten Menschen denken, KI-basierte Trainingsanpassung bedeute, einen Fragebogen über Ziele auszufüllen und ein vorgefertigtes Programm zu erhalten. Das ist eher ein Sortierhut als echte Intelligenz. Die sinnvolle Variante der KI-Personalisierung umfasst Algorithmen, die beobachten, was du tust, messen, wie du reagierst, und ändern, was als Nächstes kommt – basierend auf realen Leistungsdaten statt auf deiner selbst eingeschätzten Fitnessstufe aus dem Anmeldeformular. Der Unterschied zwischen diesen beiden Versionen erklärt, warum manche Fitness-Apps echte Anpassung erzeugen und die meisten nur Übungen auf einem Timer rotieren.

Eine randomisierte Crossover-Studie von 2024 (Doherty et al., PMID 39622712) testete dies direkt. Als 62 Teilnehmer mit einer App trainierten, die Reinforcement Learning zur Übungsauswahl nutzte, trainierten sie mit höherer Intensität und berichteten mehr Freude als bei Nutzung eines Standardalgorithmus derselben App. Das Reinforcement-Learning-System erzielte eine mittlere Zufriedenheit von 4,0 auf der Skala für Bewegungsfreude gegenüber 3,73 in der Kontrollbedingung. Kein dramatischer Unterschied isoliert betrachtet, aber das Muster dahinter ist entscheidend: Der Algorithmus lernte individuelle Vorlieben und Toleranzen über die Zeit und produzierte Einheiten, die forderten, ohne zu überfordern.

Die Positionsstellungnahme des American College of Sports Medicine zur Trainingsverordnung (Garber et al., PMID 21694556) ist eindeutig, warum das wichtig ist: Effektive Programmgestaltung erfordert Individualisierung. Personen mit scheinbar ähnlichen Fitnessprofilen reagieren unterschiedlich auf denselben Reiz. Alter, Trainingshistorie, Erholungskapazität, Stressbelastung und Schlafqualität beeinflussen, wie ein Training in Anpassung übersetzt wird. Eine fixe Vorlage, entworfen für eine statistisch durchschnittliche Person, passt fast niemandem wirklich. Die Frage ist also, ob Maschinen die Art von reaktiver Anpassung liefern können, die das ACSM empfiehlt. Die bisherige Evidenz deutet darauf hin – innerhalb bestimmter Grenzen.

Was der Algorithmus tatsächlich sieht

Ein adaptiver Fitnessalgorithmus versteht deinen Körper nicht so, wie ein Trainer es tut. Er versteht Muster in Daten. Die typischen Eingaben umfassen Abschlussraten von Einheiten, Schwierigkeitsbewertungen der Übungen (häufig erfasst als Rating of Perceived Exertion, RPE), Zeit pro Satz, Pausendauer und Herzfrequenz, wenn Wearable-Daten verfügbar sind. Aus diesen Signalen erstellt das System ein Modell deiner aktuellen Leistungsfähigkeit und nutzt es zur Vorhersage, wie die nächste Einheit aussehen sollte.

Dr. Carl Foster und Kollegen (PMID 11357117) etablierten die Sitzungs-RPE-Methode als zuverlässiges Werkzeug zur Quantifizierung der internen Trainingsbelastung über alle Übungsarten hinweg. Die zentrale Erkenntnis: Subjektive Anstrengungsbewertungen, konsequent nach jeder Einheit erhoben, liefern ein genaues Bild der akkumulierten Ermüdung, das externe Metriken allein nicht erfassen. Eine App, die nach jedem Training RPE-Daten erhebt, tut etwas qualitativ anderes als eine, die nur abgeschlossene Wiederholungen zählt. Sie erfasst, wie anstrengend die Arbeit sich für dich angefühlt hat – und das ist das Signal, das am meisten zählt, um sowohl Untertraining als auch Überbelastung zu vermeiden.

Eine systematische Übersichtsarbeit von 2025 von Jubair und Mehenaz (DOI 10.1177/20552076251355365) untersuchte, wie Smartwatch-integrierte maschinelle Lernsysteme personalisierte Trainingsverordnungen liefern. Die Übersicht ergab, dass diese Systeme eine Genauigkeit von über 98 % bei der Aktivitätserkennung erreichten und Intensität, Dauer sowie Übungstyp in Echtzeit anhand physiologischen Feedbacks anpassen konnten. Der limitierende Faktor war nicht die algorithmische Fähigkeit, sondern die Datenqualität: Systeme, die mit konsistenten, ehrlichen Eingaben arbeiteten, produzierten deutlich bessere Empfehlungen als Systeme mit sporadischen oder ungenauen Daten.

Stell es dir wie ein GPS vor, das eine Route neuberechnet. Der Algorithmus muss keine Verkehrstechnik verstehen, um dich effizient ans Ziel zu bringen. Er braucht genaue Positionsdaten und einen Rückkopplungskreislauf. Du verpasst eine Abfahrt, und er berechnet neu. Es gibt Stau, und er leitet um. Genauso schiebt ein gut konzipierter Fitnessalgorithmus nicht einfach alles um einen Tag nach vorn, wenn du eine Einheit auslässt. Er berechnet deine akkumulierte Ermüdung neu, passt das Volumen der nächsten Einheit an und tauscht möglicherweise ein Erholungstraining mit niedrigerer Intensität gegen den geplanten intensiven Tag ein.

Reinforcement Learning: das System, das aus deinen Entscheidungen lernt

Der vielversprechendste Ansatz im adaptiven Fitness ist Reinforcement Learning – ein Zweig des maschinellen Lernens, bei dem das System durch Versuch und Irrtum lernt und seine Strategie anhand von Ergebnissen anpasst. In Fitnessanwendungen ist das „Belohnungs”-Signal typischerweise eine Kombination aus Adhärenz (hast du die Einheit abgeschlossen?) und Zufriedenheit (hast du sie positiv bewertet?).

Fang und Lee (2024, PMID 38384365) entwickelten ein Deep-Reinforcement-Learning-System, das Trainingsziele dynamisch anhand retrospektiver Daten und realistischer Verhaltenspfade aktualisiert. Statt ein fixes Ziel zu setzen und zu hoffen, dass die Nutzer es erreichen, passt das System die Ziele danach an, was jede Person tatsächlich in den letzten Einheiten getan hat – unter Berücksichtigung der Fitness-Ermüdungs-Beziehung, die Sportwissenschaftler zur Periodisierung nutzen. Wenn deine letzten Einheiten darauf hindeuten, dass du schneller ermüdest als du dich erholst, drosselt das System. Wenn deine Abschlussraten und RPE-Werte anzeigen, dass du in der Komfortzone bist, erhöht es den Druck.

Das unterscheidet sich von einfacher progressiver Überlastung, bei der die Schwierigkeit nach einem fixen Zeitplan steigt. Ein Reinforcement-Learning-System unterscheidet zwischen einem Nutzer, der am Dienstag gefehlt hat, weil er erschöpft war, und einem, der am Dienstag gefehlt hat, weil er unterwegs war. Der erste braucht möglicherweise eine Entlastungswoche; der zweite ist bereit für die ursprünglich geplante Einheit. Der Algorithmus trifft diese Unterscheidung nicht durch Gedankenlesen, sondern durch Mustererkennung: Eine Reihe sinkender RPE-Werte gefolgt von einer versäumten Einheit sieht anders aus als eine einzelne versäumte Einheit gefolgt von normalem RPE.

Die DIAMANTE-Studie (Aguilera et al., 2024, PMID 39378080) liefert die stärkste klinische Evidenz für diesen Ansatz. In einer randomisierten 24-Wochen-Studie mit 168 Teilnehmern erzielte die Gruppe, die Reinforcement-Learning-optimierte Textnachrichten zur körperlichen Aktivität erhielt, einen Anstieg der täglichen Schritte um 19 % (606 zusätzliche Schritte bei einer Ausgangsbasis von 3.197). Die Gruppe mit zufälligen Nachrichten erreichte nur 3,9 %, die Kontrollgruppe 1,6 %. Das adaptive System lernte, welche Nachrichtenarten, Zeitpunkte und Formulierungen für jeden Einzelnen funktionierten, und lieferte mehr von dem, was wirkte, und weniger von dem, was nicht wirkte.

Wo die KI-Personalisierung an Grenzen stößt

Ehrlichkeit über Einschränkungen trennt nützliche Technologie von Marketing. Die KI-Trainingsanpassung hat drei bedeutende blinde Flecken, die derzeit keine algorithmische Raffinesse adressiert.

Der erste ist die Bewegungsqualität. Ein Algorithmus kann feststellen, dass du 15 Liegestütze in 38 Sekunden absolviert hast. Er kann nicht feststellen, dass dein unterer Rücken durchhing, deine Ellbogen abstanden und du bei den letzten fünf Wiederholungen mit Schwung kompensiert hast. Schlechte Technik über Monate aufrechterhalten führt zu Verletzungen, und Verletzungsdaten sind das Einzige, was kein Modell für maschinelles Lernen in seinem Trainingsdatensatz haben möchte. Das ist das stärkste Argument dafür, KI-Programmierung mit mindestens ein paar Einheiten unter menschlicher Anleitung zu kombinieren, um sichere Bewegungsmuster zu etablieren, bevor man an den Algorithmus übergibt.

Der zweite blinde Fleck ist der psychologische Kontext. Du könntest eine Einheit mit 7 von 10 auf der RPE-Skala bewerten, nach einem furchtbaren Arbeitstag, obwohl dieselbe Einheit an einem guten Tag als 5 empfunden worden wäre. Der Algorithmus sieht eine 7 und schließt, dass die Einheit angemessen fordernd war. Er hat keinen Zugang zum emotionalen Kontext, der die Zahl aufgebläht hat. Über die Zeit glättet konsistente RPE-Erfassung diese Schwankungen, aber einzelne Einheiten können falsch gelesen werden, und Fehlinterpretationen summieren sich, wenn der Nutzer sich des Effekts nicht bewusst ist.

Die dritte Einschränkung ist der Ernährungs- und Erholungskontext. Schlafmangel, unzureichende Proteinzufuhr, hohe Lebensbelastung und Dehydrierung beeinflussen Trainingsleistung und Erholung auf Weisen, die ein Trainingsalgorithmus nicht direkt misst. Einige Wearable-Plattformen beginnen, Schlafdaten zu integrieren, aber die Integration bleibt rudimentär. (Wenn du jemals einen „Erholungswert” von einer Smartwatch bekommen hast, der dir Ruhe empfahl, an einem Tag, an dem du dich großartig fühltest – dann hast du diese Lücke am eigenen Leib erfahren.)

Der Datenkreislauf: warum Konsistenz wichtiger ist als Intensität

Der wichtigste Faktor bei der KI-Trainingsanpassung ist nicht die Raffinesse des Algorithmus. Es ist die Konsistenz der Daten, die du ihm lieferst. Ein durchschnittlicher Algorithmus, der mit 60 Tagen ehrlichen, konsistenten RPE-Bewertungen, Abschlussdaten und Sitzungszeiten arbeitet, wird ein individuelleres Programm produzieren als ein ausgefeilter Algorithmus mit zwei Wochen sporadischer Eingaben.

Lally et al. (2010, PMID 19586449) fanden heraus, dass die Bildung eines neuen Verhaltens zur automatischen Gewohnheit im Median 66 Tage dauert. Das entspricht direkt den Datenanforderungen eines adaptiven Fitnesssystems. Die ersten zwei Wochen sind im Wesentlichen Kalibrierung: Der Algorithmus lernt noch deine Ausgangsleistung, Vorlieben und Erholungsmuster. Woche drei bis acht sind der Beginn echter Personalisierung, da das System genügend Daten hat, um deine Muster vom Rauschen zu unterscheiden. Jenseits von zwei Monaten beginnen die Empfehlungen, ein echtes Modell deiner individuellen Trainingsreaktion widerzuspiegeln – statt Annahmen auf Bevölkerungsebene.

Das bedeutet: Die Personen, die am meisten von KI-Personalisierung profitieren, sind diejenigen, die am wenigsten überzeugt werden müssen: konsistente Trainierende, die regelmäßig erscheinen und ehrliches Feedback geben. Die Herausforderung ist, dass diejenigen, die am meisten Hilfe bei der Trainingsadhärenz brauchen, oft diejenigen sind, deren unregelmäßiges Engagement dem Algorithmus die Daten entzieht, die er braucht, um ihnen zu helfen. Durchdachtes Onboarding, kurze Einheitsdauer und Gamification-Mechaniken existieren, um dieses Henne-Ei-Problem zu lösen – indem sie die ersten Wochen attraktiv genug gestalten, die Datenbasis zu schaffen, die echte Personalisierung später ermöglicht.

Wie adaptive Systeme die drei Trainingsvariablen anpassen

Wenn ein KI-System genügend Daten hat, modifiziert es drei primäre Trainingsvariablen: Volumen, Intensität und Übungsauswahl. Das Verständnis dieser Anpassungen hilft dir zu beurteilen, ob eine App echte Personalisierung leistet oder nur einen Stapel Übungen mischt.

Volumenanpassung bedeutet, wie viel Gesamtarbeit du in einer Einheit oder über eine Woche leistest. Wenn deine RPE-Werte über drei aufeinanderfolgende Einheiten gestiegen sind, reduziert ein gut konzipiertes System die Gesamtsätze oder kürzt die Einheitsdauer um 10–15 % und überwacht dann, ob sich dein RPE normalisiert. Das ist das digitale Äquivalent dessen, was Trainer als „autoregulierte Entlastung” bezeichnen, und es verhindert die Ansammlung von Ermüdung, die zu Plateaus und Übertraining führt. Die Doherty-et-al.-Studie von 2024 (PMID 39622712) zeigte, dass die Reinforcement-Learning-Bedingung höhere Trainingsintensität zusammen mit höherer Zufriedenheit erzielte – genau weil das System das Volumen so steuerte, dass die negative Spirale übermäßiger Ermüdung vermieden wurde.

Intensitätsanpassung basiert auf Schwierigkeitsbewertungen. Wenn du Einheiten bei einem RPE von 4 von 10 absolvierst, sollte das System dich zu schwereren Varianten drängen. Wenn du durchgehend Einheiten mit 8 oder höher bewertest, sollte es die Schwierigkeit mäßigen. Die Zielzone für produktives Training (was Sportwissenschaftler „stimulierend, aber erholbar” nennen) liegt typischerweise zwischen RPE 6 und 8 für die meisten Einheiten, mit periodischen intensiveren Tagen und bewussten Erholungseinheiten niedrigerer Intensität.

Übungsauswahl ist der Bereich, in dem maschinelles Lernen wirklich nützlich wird. Statt eine fixe Übungsbibliothek in vorbestimmter Reihenfolge zu durchlaufen, kann ein adaptives System identifizieren, welche Übungen du zuverlässig absolvierst, welche du auslässt oder schlecht bewertest und welche das beste Verhältnis von Adhärenz zu Anstrengung für dein Profil ergeben. Wenn du Einheiten, die mit Burpees beginnen, konsequent abbrichst, aber Einheiten, die mit Kniebeugen starten, absolvierst, lernt das System, Bewegungen, die du tolerierst, vorzuziehen und anspruchsvollere Übungen für später in der Einheit aufzuheben – wenn dein Engagement bereits etabliert ist. Das ist Verhaltensengineering, und es funktioniert.

Worauf du bei einer adaptiven Fitness-App achten solltest

Nicht jede App, die KI-Personalisierung verspricht, liefert sie auch. Drei Merkmale unterscheiden echte adaptive Systeme von Marketing-verkleideten Übungsrandomisierern.

Das erste ist Datenerfassung über den Abschluss hinaus. Apps, die nur wissen, ob du ein Training beendet hast, operieren im Blindflug. Suche nach Systemen, die fragen, wie sich die Einheit angefühlt hat (RPE oder ähnliche Bewertung), Pausenzeiten erfassen und optional Wearable-Daten für Herzfrequenz integrieren. Mehr Eingabekanäle bedeuten ein reichhaltigeres Modell deines Trainingszustands.

Das zweite Merkmal sind sichtbare Programmänderungen. Wenn deine App Woche für Woche die gleiche Struktur liefert, unabhängig von deiner Leistung, passt sie sich nicht an. Echte Personalisierung produziert Einheiten, die auf das reagieren, was du getan hast. Du solltest Wochen bemerken, in denen das Volumen nach einem harten Abschnitt leicht sinkt, und Wochen, in denen die Intensität nach einer Erholungsphase steigt.

Der dritte Indikator ist der intelligente Umgang mit versäumten Einheiten. Einen Tag auszulassen sollte nicht einfach alles nach vorn schieben. Es sollte eine Neuberechnung auslösen. Hast du gefehlt, weil du erschöpft warst (was eine Entlastung nahelegt) oder wegen eines Terminkonflikts (was nahelegt, dass die geplante Einheit weiterhin angemessen ist)? Manche Apps fragen nach dem Grund; andere leiten ihn aus Mustern ab. Beide Ansätze sind besser als blindes Kalendervorrücken.

RazFit wendet diese Prinzipien durch seine KI-Trainer an – Orion für kraftorientierte Programmierung und Lyssa für Cardio – mit 1- bis 10-minütigen Einheiten, die sich anhand deiner Abschlussdaten und Schwierigkeitsbewertungen anpassen. Das kurze Einheitenformat löst das Datenkonsistenz-Problem, indem es die Hürde für regelmäßige Teilnahme senkt, und die Gamification-Ebene liefert das Verhaltensgerüst, das Nutzer während der kritischen ersten 60 Tage bei der Stange hält, während der Algorithmus kalibriert.

Das nächste Training ist das, was zählt

KI-Trainingsanpassung ist keine Wunderlösung. Sie ist ein Rückkopplungskreislauf. Der Algorithmus wird besser, je mehr Daten du ihm gibst, und die Daten sammeln sich nur an, wenn du weiter erscheinst. Die Forschung zeigt klar, dass adaptive Systeme statische Programme sowohl bei Adhärenz als auch bei Zufriedenheit übertreffen, aber der Vorteil potenziert sich über die Zeit.

Beginne mit ehrlichen Anstrengungsbewertungen. Absolviere Einheiten in einem Tempo, das wirklich fordernd, aber nachhaltig ist. Gib dem System 8 bis 10 Wochen, bevor du beurteilst, ob die Personalisierung sich treffend anfühlt. Beobachte, ob sich deine Einheiten als Reaktion auf deine Leistung verändern – denn das ist das klarste Signal dafür, dass du mit einem System arbeitest, das lernt, statt mit einem, das rät.

Die DIAMANTE-Studie sah ihre stärksten Effekte nach 24 Wochen konsistenten Engagements. Die Crossover-Studie von Doherty et al. brauchte 12 Wochen, um bedeutsame Unterschiede nachzuweisen. Das Muster ist konsistent: KI-Personalisierung ist ein langfristiges Spiel. Die Personen, die sie als solches behandeln – die in den Datenkreislauf investieren und dem Prozess vertrauen – sind diejenigen, die feststellen, dass sich ihr Programm anfühlt, als hätte es jemand geschrieben, der sie kennt. Weil es das in einem realen Sinne auch hat.

Verwandte Artikel


Referenzen

  1. Garber CE et al. (2011). „Quantity and quality of exercise for developing and maintaining cardiorespiratory, musculoskeletal, and neuromotor fitness in apparently healthy adults: guidance for prescribing exercise.” Medicine & Science in Sports & Exercise, 43(7), 1334–1359. PMID 21694556. https://pubmed.ncbi.nlm.nih.gov/21694556/

  2. Doherty C et al. (2024). „An evaluation of the effect of app-based exercise prescription using reinforcement learning on satisfaction and exercise intensity: randomized crossover trial.” JMIR mHealth and uHealth. PMID 39622712. https://pubmed.ncbi.nlm.nih.gov/39622712/

  3. Aguilera A et al. (2024). „Effectiveness of a digital health intervention leveraging reinforcement learning: results from the DIAMANTE randomized clinical trial.” Journal of Medical Internet Research. PMID 39378080. https://pubmed.ncbi.nlm.nih.gov/39378080/

  4. Fang J, Lee VCS et al. (2024). „Enhancing digital health services: a machine learning approach to personalized exercise goal setting.” Digital Health. PMID 38384365. https://pubmed.ncbi.nlm.nih.gov/38384365/

  5. Jubair H, Mehenaz M (2025). „Utilizing machine learning algorithms for personalized workout recommendations and monitoring: a systematic review on smartwatch-assisted exercise prescription.” Digital Health. DOI 10.1177/20552076251355365. https://doi.org/10.1177/20552076251355365

  6. Foster C et al. (2001). „A new approach to monitoring exercise training.” Journal of Strength and Conditioning Research, 15(1), 109–115. PMID 11357117. https://pubmed.ncbi.nlm.nih.gov/11357117/

  7. Lally P et al. (2010). „How are habits formed: modelling habit formation in the real world.” European Journal of Social Psychology, 40(6), 998–1009. PMID 19586449. https://pubmed.ncbi.nlm.nih.gov/19586449/

Verfügbar auf iOS

Bist du bereit zur Transformation?

Tritt Tausenden von Menschen bei, die bereits Ergebnisse erzielen

Teste 3 Tage kostenlos mit vollem Zugriff auf alle Funktionen

3 Tage kostenlos

Vollständiger Test ohne Limits

Keine Karte

Keine Zahlung erforderlich

Alles inklusive

30 Übungen + KI + Erfolge

Jederzeit kündbar

Keine langfristigen Verpflichtungen

Lade RazFit jetzt herunter

Verfügbar für iPhone und iPad · Erfordert iOS 18 oder höher

🔒 Keine Verpflichtung · Jederzeit kündbar · Deutschsprachiger Support