Hilfe - Anwenderdokumentation

Anwender-Dokumentation: UIS-FairGrade

KI-gestützte Korrektur von Studienarbeiten


1. Allgemeines

1.1 Systemvoraussetzungen

Browser-Anforderungen: - Moderne Browser werden unterstützt: - Google Chrome (Version 90+) - Mozilla Firefox (Version 88+) - Microsoft Edge (Version 90+) - Safari (Version 14+) - JavaScript muss aktiviert sein - Cookies müssen aktiviert sein (für Sitzungsverwaltung)

Internetverbindung: - Stabile Internetverbindung erforderlich - Empfohlene Mindestgeschwindigkeit: 5 Mbit/s - Upload-Bandbreite wichtig für das Hochladen von Studienarbeiten

Weitere Anforderungen: - Bildschirmauflösung: mindestens 1280x720 Pixel empfohlen - Pop-up-Blocker sollte für diese Anwendung deaktiviert sein

1.2 Anmeldung

Prozess zur Anmeldung:

  1. Token-Generierung:
  2. Einmal-Login-Tokens werden auf Anforderung mit der Ihrer EDU E-Mail Adresse versendet
  3. Der Token ist ein eindeutiger, kryptographisch sicherer Schlüssel
  4. Tokens werden nur für den ersten Login benötigt

  5. Anmeldevorgang:

  6. Öffnen Sie die in der E-Mail enthaltene Login-URL
  7. Der Token wird automatisch aus der URL extrahiert
  8. Bei erfolgreicher Authentifizierung werden Sie ins System eingeloggt
  9. Eine neue Sitzung wird erstellt

  10. Gültigkeitsdauer:

  11. Tokens sind standardmäßig 4 Stunden gültig
  12. Nach Ablauf muss ein neuer Token angefordert werden
  13. Tokens können nur einmalig verwendet werden
  14. Nach erfolgreicher Verwendung wird der Token ungültig

  15. Sitzungsverwaltung:

  16. Nach dem Login bleibt Ihre Sitzung aktiv
  17. Die Sitzungsdauer wird durch Ihre Browser-Cookies verwaltet
  18. Bei längerer Inaktivität werden Sie automatisch abgemeldet

1.3 Abmeldung

Verfahren zur Abmeldung:

  1. Klicken Sie auf Ihren Benutzernamen in der oberen rechten Ecke
  2. Wählen Sie "Abmelden" aus dem Dropdown-Menü
  3. Sie werden zur Login-Seite weitergeleitet
  4. Ihre Sitzung wird beendet und alle temporären Daten werden gelöscht

Empfehlung: - Melden Sie sich immer ab, wenn Sie einen öffentlichen Computer verwenden - Schließen Sie den Browser nach der Abmeldung für zusätzliche Sicherheit

1.4 Pilotphase

Status des Projekts:

UIS-FairGrade befindet sich derzeit in der Pilotphase als innovatives Forschungs- und Entwicklungsprojekt für KI-gestützte Korrektur von Studienarbeiten.

Was bedeutet das für Sie: - Das System wird kontinuierlich verbessert und optimiert - Neue Features werden regelmäßig hinzugefügt - Ihre Rückmeldungen sind wertvoll für die Weiterentwicklung

Bewertungsfunktion (Stars): - In der Matrix-Ansicht finden Sie eine 5-Sterne-Bewertungsfunktion - Bewerten Sie die Qualität der KI-Evaluierungen: - ⭐ = Sehr schlecht - ⭐⭐ = Schlecht - ⭐⭐⭐ = Befriedigend - ⭐⭐⭐⭐ = Gut - ⭐⭐⭐⭐⭐ = Sehr gut - Optional können Sie zusätzlichen Text-Kommentar hinzufügen - Ihre Bewertungen helfen uns, das System zu verbessern

Feedback: - Nutzen Sie die Bewertungsfunktion aktiv - Melden Sie Probleme oder Verbesserungsvorschläge an das Entwicklungsteam - Kontakt: idea@isartec.de

1.5 Kritische Bewertung

Wichtiger Hinweis:

Die KI-generierten Bewertungen sind als Unterstützungswerkzeug zu verstehen, nicht als finale Entscheidung.

Ihre Verantwortung: - ✓ Prüfen Sie alle KI-Bewertungen kritisch - ✓ Vergleichen Sie die Bewertungen verschiedener KI-Modelle - ✓ Nutzen Sie Ihr fachliches Urteilsvermögen - ✓ Korrigieren Sie offensichtliche Fehler oder Unstimmigkeiten - ✓ Die finale Bewertung liegt in Ihrer Verantwortung

Best Practices: - Lesen Sie die generierten Feedbacks aufmerksam - Achten Sie auf Konsistenz zwischen verschiedenen KI-Modellen - Nutzen Sie die Ensemble-Bewertungen als Referenz - Bei Zweifeln: Überprüfen Sie die Originalarbeit selbst

1.6 Bearbeitungszeit

Zeitaufwand für die Korrektur:

Die Bearbeitungszeit hängt vom Umfang der Studienarbeit ab:

Standardlaufzeiten: - Kurze Arbeiten (5-10 Seiten): 10-15 Minuten - Mittlere Arbeiten (10-20 Seiten): 15-20 Minuten - Längere Arbeiten (20-40 Seiten): 20-30 Minuten - Sehr umfangreiche Arbeiten (40+ Seiten): 30+ Minuten

Prozessschritte: 1. Datei-Upload und Validierung (< 1 Minute) 2. Textextraktion und Chunking (1-2 Minuten) 3. KI-Evaluierung durch mehrere Modelle (10-25 Minuten) 4. Ensemble-Berechnung (< 1 Minute) 5. Berichterstellung (< 1 Minute)

Einflussfaktoren: - Anzahl der Bewertungskriterien im Korrekturprofil - Anzahl der verwendeten KI-Modelle - Aktuelle Systemauslastung - API-Antwortzeiten der KI-Anbieter

Hinweis: Die Korrektur läuft im Hintergrund. Sie können andere Aufgaben erledigen und werden über den Status in der Matrix-Ansicht informiert.

1.7 Verwendete KI-Anbieter

Unterstützte KI-Modelle:

Das System nutzt drei führende KI-Anbieter für eine ausgewogene und robuste Bewertung:

1. OpenAI (GPT-Modelle): - Bekannt für: Präzise Sprachverarbeitung und detailliertes Feedback - Stärken: Analytisches Denken, strukturierte Bewertungen - Verwendung: Agent 1 oder nach Konfiguration

2. Google Gemini: - Bekannt für: Multimodale Analyse und umfassendes Verständnis - Stärken: Kontextverarbeitung, kreative Bewertungsansätze - Verwendung: Agent 2 oder nach Konfiguration

3. Anthropic Claude: - Bekannt für: Ausgewogene und faire Bewertungen - Stärken: Konsistenz, ethische Überlegungen - Verwendung: Agent 3 oder nach Konfiguration

Ensemble-Ansatz: - Jedes Kriterium wird von allen drei KI-Modellen unabhängig bewertet - Die finale Bewertung ist ein Durchschnitt aller Modelle (Ensemble) - Dies reduziert Bias und erhöht die Zuverlässigkeit

1.8 Bewertungsunterschiede zwischen KI-Modellen

Warum unterscheiden sich die Bewertungen?

Unterschiedliche KI-Modelle können zu unterschiedlichen Bewertungen derselben Arbeit kommen:

Typische Abweichungen: - Gering (±2-5%): Normale Variation bei klaren Kriterien - Moderat (±5-10%): Unterschiedliche Interpretationen von Qualität - Hoch (±10%+): Verschiedene Schwerpunkte oder Bewertungsmaßstäbe

Ursachen für Unterschiede: 1. Trainings daten: Jedes Modell wurde auf unterschiedlichen Datensätzen trainiert 2. Bewertungslogik: Verschiedene Algorithmen und Gewichtungen 3. Interpretationsspielraum: Subjektive Kriterien werden unterschiedlich ausgelegt 4. Sprachverständnis: Nuancen werden unterschiedlich erfasst

Wie gehen Sie damit um: - Betrachten Sie die Ensemble-Bewertung als Hauptreferenz - Große Abweichungen (>15%) sollten manuell überprüft werden - Nutzen Sie die Matrix-Ansicht, um Muster zu erkennen - Bewerten Sie auffällige Evaluierungen mit der Sternfunktion

Vorteile der Diversität: - Reduzierung von systematischen Fehlern - Ausgleich von Modell-spezifischen Bias - Robustere und fairere Gesamtbewertung


2. Prüfungen

2.1 Prüfungsübersicht

Zugang zur Prüfungsübersicht:

  1. Nach dem Login gelangen Sie zur Startseite
  2. Klicken Sie auf "Prüfungen" in der Navigationsleiste
  3. Sie sehen eine Liste aller Prüfungen, für die Sie berechtigt sind

Angezeigte Informationen: - Prüfungsname: Bezeichnung der Prüfung - Prüfungsdatum: Datum der Durchführung - Semester: Zugeordnetes Semester - Niveau: Bachelor, Master, Doktorat oder Weiterbildung - Teilnehmer: Anzahl der eingeschriebenen Studierenden - Status: Übersicht über Korrekturstatus (Pending, Working, Done, Failed)

Aktionen: - Details: Klicken Sie auf eine Prüfung, um zur Detailansicht zu gelangen - Suche/Filter: Nutzen Sie die Suchfunktion, um Prüfungen schnell zu finden

2.2 Prüfungseinstellungen

Zugang zu den Einstellungen:

  1. Öffnen Sie die Detailansicht einer Prüfung
  2. Klicken Sie auf "Einstellungen" oder das Zahnrad-Symbol

Konfigurierbare Optionen:

a) Niveau: - Bachelor - Master - Doktorat - Weiterbildung - Bestimmt den Bewertungsmaßstab und die Erwartungen

b) KI-Erlaubnis: - Erlaubt: Studierende durften KI-Tools verwenden - Nicht erlaubt: KI-Nutzung war verboten - Unbekannt: Keine Regelung getroffen - Beeinflusst die Plagiatsprüfung und Bewertungskriterien Die Bewertung wird nicht erkennen ob KI bei der Erstellung der Arbeit beteiligt war! Es kann aber Hinweiese geben (Erwähnungen, Verweise, etc.) die die Nutzung von KI Tools vermuten lassen. Die Bewertung durch die Ki würde dies bestrafen, sofern es nicht explizit erlaubt war).

c) Aufgabenstellung: - Textfeld für die Aufgabenbeschreibung - Wird den KI-Modellen als Kontext übergeben - Sollte klar und präzise formuliert sein - Wichtig für kontextbasierte Bewertung

d) Korrekturprofil: - Auswahl des anzuwendenden Bewertungsschemas - Ein Profil besteht aus mehreren Kriterien mit Gewichtungen - Beispiel-Kriterien: - Fachliche Korrektheit (40%) - Struktur und Aufbau (20%) - Wissenschaftliches Arbeiten (20%) - Sprache und Stil (20%)

Korrekturprofil erstellen/bearbeiten: - Im Admin-Bereich unter "Korrekturprofile" - Definieren Sie Kriterien mit Namen und Gewichtung - Wählen Sie KI-Agenten für jedes Kriterium - Aktivieren/Deaktivieren Sie Profile bei Bedarf

2.3 Studienarbeit hochladen

Verfahren zum Hochladen:

  1. Prüfung auswählen:
  2. Navigieren Sie zur Prüfungsdetailansicht
  3. Wählen Sie den Teilnehmer aus der Liste

  4. Upload-Bereich:

  5. Klicken Sie auf "Datei hochladen" oder "Upload"
  6. Ein Datei-Dialog öffnet sich

  7. Datei auswählen:

  8. Wählen Sie die Studienarbeit aus
  9. Unterstützte Formate: PDF, DOCX, TXT
  10. Maximale Dateigröße: Abhängig von der Systemkonfiguration (typisch 50 MB)

  11. Upload bestätigen:

  12. Klicken Sie auf "Hochladen"
  13. Fortschrittsbalken zeigt Upload-Status
  14. Nach Abschluss erscheint eine Bestätigungsmeldung

Hinweise: - Pro Teilnehmer kann eine Datei hochgeladen werden - Beim erneuten Upload wird die alte Datei ersetzt - Die Datei wird automatisch validiert (Format, Lesbarkeit)

Fehlerbehandlung: - Bei Formatfehlern: Überprüfen Sie das Dateiformat - Bei Upload-Fehlern: Prüfen Sie Ihre Internetverbindung - Bei Validierungsfehlern: Stellen Sie sicher, dass die Datei nicht beschädigt ist

2.4 Verarbeitung der Studienarbeit

Interner Prozess (automatisch):

Nach dem Upload durchläuft die Studienarbeit mehrere Verarbeitungsschritte:

1. Textextraktion: - PDF/DOCX wird in reinen Text konvertiert - Formatierungen werden entfernt - Sonderzeichen werden normalisiert - Ergebnis: arbeit_raw.txt

2. Inhaltsextraktion: - Inhaltsverzeichnis (ToC): Wird identifiziert und extrahiert - Literaturverzeichnis: Wird am Ende erkannt und extrahiert - Beide werden separat gespeichert und aus dem Haupttext entfernt

3. Chunking (Aufteilung): - Der Haupttext wird in ~2000-Token-Chunks aufgeteilt - Chunks überlappen um 12,5% für Kontext-Kontinuität - Chunks enden und beginnen an Satzgrenzen (keine abgeschnittenen Sätze) - Jeder Chunk wird als separate Datei gespeichert: arbeit_chunk_000.txt, arbeit_chunk_001.txt, etc.

4. Keyword-Extraktion: - Für jeden Chunk werden die Top-10 Schlüsselwörter extrahiert - Verwendung von YAKE-Algorithmus oder TF-IDF - Ermöglicht semantische Suche während der Bewertung

5. Vektorisierung (Weaviate): - Alle Chunks werden in eine Vektor-Datenbank (Weaviate) eingefügt - Ermöglicht schnelles Retrieval relevanter Textpassagen - Isolation pro Student (keine Daten-Vermischung)

6. Markdown-Konvertierung: - Die gesamte Arbeit wird in Markdown-Format konvertiert - Erleichtert die Ansicht und KI-Verarbeitung - Verfügbar als Download

Statusanzeige: - Hochgeladen: Datei wurde erfolgreich hochgeladen - Verarbeitung läuft: Extraktion und Chunking in Arbeit - Bereit: Verarbeitung abgeschlossen, bereit für Korrektur - Fehler: Problem während der Verarbeitung

Hinweis: Dieser Prozess läuft im Hintergrund und dauert typischerweise 1-3 Minuten.

2.5 Studienarbeit löschen

Löschvorgang:

  1. Zugriff:
  2. Navigieren Sie zur Teilnehmeransicht
  3. Klicken Sie auf "Löschen" oder das Papierkorb-Symbol

  4. Bestätigung:

  5. Ein Bestätigungsdialog erscheint
  6. Warnung: Diese Aktion ist unwiderruflich!
  7. Lesen Sie die Warnung sorgfältig

  8. Was wird gelöscht:

  9. Die hochgeladene Originaldatei
  10. Alle extrahierten Textdateien (raw, chunks, ToC, refs)
  11. Alle Weaviate-Einträge für diesen Studenten
  12. NICHT gelöscht: Bereits abgeschlossene Bewertungen und Berichte

  13. Ausführung:

  14. Bestätigen Sie mit "Löschen"
  15. Erfolgs- oder Fehlermeldung wird angezeigt

Wann sollten Sie löschen: - Falsche Datei wurde hochgeladen - Datenschutzgründe erfordern Löschung - Neustart mit aktualisierter Arbeit erforderlich

Hinweis: Wenn Sie nur die Bewertungen zurücksetzen möchten (ohne die Datei zu löschen), verwenden Sie die Zurücksetzen-Funktion (siehe Abschnitt 2.12).

2.6 Matrix-Ansicht

Zugang zur Matrix:

  1. Öffnen Sie die Prüfungsdetailansicht
  2. Klicken Sie auf einen Teilnehmer
  3. Die Matrix-Ansicht wird automatisch geladen

Aufbau der Matrix:

Die Matrix ist eine tabellarische Darstellung aller Bewertungen:

Spalten: - Kriterium: Name des Bewertungskriteriums - Agent 1 (z.B. OpenAI): Bewertung durch den ersten KI-Agenten - Agent 2 (z.B. Gemini): Bewertung durch den zweiten KI-Agenten - Agent 3 (z.B. Claude): Bewertung durch den dritten KI-Agenten - Ensemble (Horizontal): Durchschnitt der drei Agenten für dieses Kriterium

Zeilen: - Eine Zeile pro Bewertungskriterium - Agent-Ensemble-Zeilen: Durchschnitt eines Agenten über alle Kriterien - Gesamt-Ensemble-Zeile: Gewichteter Durchschnitt aller Bewertungen

Zell-Inhalte: - Status-Badge: Farb-codiert (Grün=Success, Rot=Failed, Blau=Running, Grau=Pending) - Prozent-Wert: Erzielte Punkte in Prozent - Info-Button (ℹ️): Details und Feedback anzeigen - Stern-Button (⭐): Bewertung abgeben - Restart-Button (🔄): Fehlgeschlagene Tasks neu starten

Farbcodierung: - Grün (success): Bewertung erfolgreich abgeschlossen - Rot (failed): Bewertung fehlgeschlagen (Fehler anzeigen) - Blau (running/claimed): Bewertung läuft gerade - Grau (pending/queued): Bewertung wartet auf Ausführung

Interaktionen: - Hover: Zeigt Tooltips mit zusätzlichen Informationen - Klick auf Info: Öffnet Modal mit detailliertem Feedback - Klick auf Stern: Öffnet Bewertungs-Modal - Klick auf Restart: Startet fehlgeschlagene Task neu

Auto-Refresh: - Die Matrix aktualisiert sich automatisch während der Korrektur - Status-Updates erscheinen in Echtzeit - Keine manuelle Aktualisierung erforderlich

2.7 MD-Format (Markdown-Ansicht)

Zugriff auf Markdown-Ansicht:

  1. In der Teilnehmeransicht
  2. Klicken Sie auf "MD anzeigen" oder "Markdown"

Was wird angezeigt:

  • Die vollständige Studienarbeit im Markdown-Format
  • Überschriften werden als #, ##, ### dargestellt
  • Listen werden strukturiert angezeigt
  • Code-Blöcke (falls vorhanden) werden hervorgehoben
  • Tabellen werden im Markdown-Tabellenformat angezeigt

Vorteile der Markdown-Ansicht: - ✓ Leichter zu lesen als reiner Text - ✓ Struktur ist klar erkennbar - ✓ Ideal zum Kopieren in andere Tools - ✓ Kann als .md-Datei heruntergeladen werden

Download: - Klicken Sie auf "Download MD" - Die Datei wird als .md gespeichert - Öffnen Sie mit jedem Markdown-Editor oder Text-Editor

Verwendungszwecke: - Schnelle Vorschau der Arbeit - Vorbereitung für manuelle Korrektur - Export für externe Tools (z.B. Plagiatsprüfung)

2.8 KI-Korrektur starten

Prozess zum Start:

  1. Voraussetzungen prüfen:
  2. Studienarbeit wurde hochgeladen
  3. Verarbeitung ist abgeschlossen (Status: "Bereit")
  4. Korrekturprofil ist zugewiesen

  5. Start:

  6. Klicken Sie auf "Korrektur starten" in der Teilnehmeransicht
  7. Das System erstellt automatisch einen Evaluation Job
  8. Der Status wechselt zu "Working"

  9. Hintergrundverarbeitung:

  10. Der Evaluation Worker übernimmt die Aufgabe
  11. Tasks werden der Reihe nach abgearbeitet:

    1. Agent-Evaluierungen (alle KI-Modelle)
    2. Kriterien-Ensembles (Durchschnitt pro Kriterium)
    3. Agenten-Ensembles (Durchschnitt pro Agent)
    4. Gesamt-Ensemble (gewichteter Durchschnitt)
  12. Fortschrittsanzeige:

  13. Matrix-Ansicht zeigt Live-Status aller Tasks
  14. Fortschrittsbalken (z.B. "60% abgeschlossen")
  15. Geschätzte verbleibende Zeit

Was passiert im Hintergrund: - Jedes Kriterium wird von allen konfigurierten KI-Agenten bewertet - Die Agenten erhalten Kontext (Aufgabenstellung, relevante Chunks) - Jeder Agent liefert eine Prozent-Bewertung und textliches Feedback - Bei Fehlern werden Tasks automatisch bis zu 3x wiederholt

Abschluss: - Bei Erfolg: Status wechselt zu "Done" - Bei Fehlern: Status wechselt zu "Failed" oder "Partial" - Sie erhalten eine Zusammenfassung aller Bewertungen

Hinweis: Die Korrektur kann nicht unterbrochen werden, ohne sie abzubrechen (siehe "Abbrechen"-Funktion).

2.9 Bewertungssystem

Wie funktioniert die Bewertung:

1. Einzelbewertung (Agent pro Kriterium): - Jeder KI-Agent bewertet jedes Kriterium unabhängig - Bewertung erfolgt auf einer Skala von 0% bis 100% - Jede Bewertung enthält: - Prozent-Wert: Erreichte Punktzahl - Feedback-Text: Begründung der Bewertung (mehrere Sätze)

2. Horizontales Ensemble (pro Kriterium): - Durchschnitt aller Agenten für ein Kriterium - Formel: (Agent1 + Agent2 + Agent3) / 3 - Reduziert Bias einzelner Modelle - Zeigt Konsistenz der Bewertungen

3. Vertikales Ensemble (pro Agent): - Durchschnitt eines Agenten über alle Kriterien - Zeigt Tendenz des jeweiligen Modells - Gewichtung der Kriterien wird berücksichtigt

4. Gesamt-Ensemble (Total): - Finale Gesamtbewertung - Gewichteter Durchschnitt aller Kriterien-Ensembles - Formel: Σ(Kriterium_Ensemble × Gewichtung) / Σ(Gewichtung) - Dies ist die finale empfohlene Note

Gewichtung: - Jedes Kriterium hat eine Gewichtung (z.B. 40%, 30%, 20%, 10%) - Gewichtungen müssen nicht 100% ergeben - Gewichtungen werden in der Gesamt-Ensemble-Berechnung berücksichtigt - Können als Dezimalzahlen definiert werden (z.B. 33.3%)

Bewertungsskala: - 90-100%: Sehr gut - 80-89%: Gut - 70-79%: Befriedigend - 60-69%: Ausreichend - < 60%: Nicht ausreichend

Hinweis: Diese Schwellenwerte sind Richtwerte. Die finale Notenvergabe liegt in Ihrer Verantwortung und sollte den Prüfungsordnungen Ihrer Institution entsprechen.

2.10 Berichte (Reports)

Verfügbare Berichte:

Das System generiert mehrere Arten von Berichten im Markdown-Format:

1. Agent-Ensemble-Bericht: - Zugriff: Klicken Sie auf "Bericht" in einer Agent-Ensemble-Zeile - Inhalt: - Prüfungsinformationen (Name, Datum, Profil) - Studierenden-Informationen (Name, Matrikelnummer, Studiengang) - Agent-Informationen (Name, Modell) - Detaillierte Kriterien-Bewertungen mit Gewichtungen - Einzelfeedback pro Kriterium - Gesamt-Ensemble-Ergebnis für diesen Agenten - Format: Markdown (.md) - Verwendung: Detailansicht der Bewertung eines einzelnen KI-Modells

2. Gesamt-Ensemble-Bericht: - Zugriff: Klicken Sie auf "Gesamtbericht" in der Gesamt-Ensemble-Zeile - Inhalt: - Vollständige Bewertungsmatrix (alle Agenten, alle Kriterien) - Statistiken (Anzahl erfolgreicher Bewertungen) - Detaillierte Ergebnisse pro Kriterium mit allen Agent-Bewertungen - Horizontale Ensemble-Ergebnisse pro Kriterium - Vertikale Ensemble-Ergebnisse pro Agent - Finale Gesamt-Ensemble-Bewertung mit Zusammenfassung - Format: Markdown (.md) - Länge: Optimiert für 1-2 A4-Seiten - Verwendung: Vollständiger Überblick über alle Bewertungen

Download und Weiterverarbeitung:

  1. Download:
  2. Klicken Sie auf den entsprechenden Bericht-Button
  3. Datei wird als .md heruntergeladen
  4. Dateiname enthält Prüfungs- und Studierenden-Information

  5. In PDF konvertieren:

  6. Option 1: Online-Tools (z.B. Dillinger, StackEdit)
  7. Option 2: Markdown-Editoren (z.B. Typora, MarkText, VS Code mit Extension)
  8. Option 3: Kommandozeilen-Tools (z.B. Pandoc) bash pandoc bericht.md -o bericht.pdf

  9. Weiterverarbeitung:

  10. In Word importieren (Copy & Paste oder Import)
  11. In LMS/Lernplattform hochladen
  12. Per E-Mail an Studierende versenden
  13. Als Backup archivieren

Best Practices: - Generieren Sie Berichte nach Abschluss aller Bewertungen - Überprüfen Sie Berichte vor dem Versand an Studierende - Archivieren Sie Berichte für Dokumentationszwecke - Verwenden Sie professionelle Formatierungen bei PDF-Konvertierung

2.11 Korrektur neu starten

Wann verwenden:

Die "Korrektur neu starten"-Funktion ist nützlich in folgenden Situationen: - Die Korrektur wurde mit Status "Failed" abgeschlossen - Einige Tasks sind fehlgeschlagen und Sie möchten alle neu bewerten - Sie haben das Korrekturprofil geändert und möchten mit dem neuen Profil korrigieren - Die vorherige Korrektur enthält zu viele Fehler

Unterschied zu "Zurücksetzen": - Neu starten: Behält alle bisherigen Bewertungen, startet nur fehlgeschlagene Tasks neu - Zurücksetzen: Löscht ALLE Bewertungen und startet komplett neu (siehe 2.12)

Vorgehensweise:

  1. Zugriff:
  2. Navigieren Sie zur Teilnehmer-Matrix-Ansicht
  3. Button "Korrektur neu starten" ist verfügbar, wenn Status "Failed" oder "Done"

  4. Klick auf "Korrektur neu starten":

  5. System prüft den aktuellen Status
  6. Bereits erfolgreiche Bewertungen bleiben erhalten
  7. Fehlgeschlagene oder fehlende Tasks werden auf "Queued" gesetzt

  8. Hintergrundverarbeitung:

  9. Der Evaluation Worker übernimmt die Tasks
  10. Nur neue/fehlgeschlagene Bewertungen werden ausgeführt
  11. Fortschritt wird in der Matrix angezeigt

Vorteile: - ✓ Zeitersparnis: Erfolgreiche Bewertungen werden nicht wiederholt - ✓ Ressourcenschonend: Nur notwendige API-Calls werden gemacht - ✓ Konsistenz: Bereits gute Bewertungen bleiben unverändert

Hinweis: Wenn Sie wirklich ALLE Bewertungen neu machen möchten, verwenden Sie stattdessen die "Zurücksetzen"-Funktion.

2.12 Zurücksetzen

Wann verwenden:

Die "Zurücksetzen"-Funktion ist für folgende Szenarien gedacht: - Sie möchten komplett neu anfangen (alle Bewertungen löschen) - Das Korrekturprofil wurde grundlegend geändert - Die Aufgabenstellung wurde aktualisiert - Sie möchten mit einer sauberen Basis starten

Wichtige Warnung: ⚠️ Diese Aktion ist NICHT rückgängig zu machen! - Alle Bewertungen werden gelöscht - Alle Tasks werden gelöscht - Alle Evaluation Jobs werden gelöscht - Die hochgeladene Datei bleibt ERHALTEN (wird NICHT gelöscht)

Vorgehensweise:

  1. Zugriff:
  2. Navigieren Sie zur Teilnehmer-Matrix-Ansicht
  3. Button "Zurücksetzen" ist verfügbar, wenn bereits Bewertungen existieren

  4. Klick auf "Zurücksetzen":

  5. Ein roter Bestätigungsdialog erscheint
  6. Lesen Sie die Warnung sorgfältig!
  7. Der Dialog erklärt, was gelöscht wird

  8. Bestätigung:

  9. Klicken Sie auf "Zurücksetzen bestätigen"
  10. Oder "Abbrechen", um den Vorgang abzubrechen

  11. Ausführung:

  12. Alle Bewertungsdaten werden gelöscht
  13. Status wechselt zurück auf "Pending"
  14. Erfolgs- oder Fehlermeldung wird angezeigt

Was passiert genau: - ✗ Alle Bewertung-Datensätze werden gelöscht - ✗ Alle Task-Datensätze werden gelöscht - ✗ Alle EvaluationJob-Datensätze werden gelöscht - ✓ Die hochgeladene Datei bleibt erhalten - ✓ Alle extrahierten Chunks und Metadaten bleiben erhalten - ✓ Der Teilnehmer-Datensatz bleibt erhalten

Nach dem Zurücksetzen: - Sie können die Korrektur neu starten mit "Korrektur starten" - Alle Bewertungen werden komplett neu durchgeführt - Der Teilnehmer startet mit Status "Pending"

Audit-Log: - Diese Aktion wird protokolliert - Datum, Uhrzeit und Benutzer werden gespeichert - Anzahl der gelöschten Datensätze wird festgehalten

2.13 Status-Legende

Übersicht aller Status:

Das System verwendet verschiedene Status-Indikatoren für Teilnehmer, Jobs und Tasks:

Teilnehmer-Status (job_status):

Status Bedeutung Farbe Symbol
Pending Warten auf Start der Korrektur Grau ⏸️
Working Korrektur läuft gerade Blau ⚙️
Done Korrektur erfolgreich abgeschlossen Grün
Failed Korrektur fehlgeschlagen Rot

Job-Status (EvaluationJob):

Status Bedeutung Beschreibung
pending Job erstellt, wartet auf Start Job wurde angelegt, noch keine Tasks gestartet
working Job wird bearbeitet Mindestens ein Task läuft oder ist abgeschlossen
running Job läuft aktiv Synonym für "working"
partial Teilweise erfolgreich Job abgeschlossen, aber einige Tasks sind fehlgeschlagen
completed Vollständig erfolgreich Alle Tasks erfolgreich abgeschlossen
failed Fehlgeschlagen Job konnte nicht abgeschlossen werden
cancelled Abgebrochen Job wurde manuell abgebrochen

Task-Status:

Status Bedeutung Farbe Aktion möglich
queued Wartet auf Ausführung Grau Warten
claimed Vom Worker beansprucht Hellblau Wird gleich gestartet
running Wird gerade ausgeführt Blau In Bearbeitung
success Erfolgreich abgeschlossen Grün Ergebnis ansehen, Bewerten
failed Fehlgeschlagen Rot Neu starten, Fehler ansehen
skipped Übersprungen Gelb -

Fortschrittsanzeige:

Die Matrix-Ansicht zeigt den Fortschritt in Prozent: - 0%: Noch nicht gestartet - 1-99%: In Bearbeitung (z.B. "67% - 4/6 Tasks abgeschlossen") - 100%: Vollständig abgeschlossen

Status-Übergänge:

Teilnehmer:
pending → working → done/failed
           ↓
        cancelled → pending (bei Abbruch)

Task:
queued → claimed → running → success/failed
                      ↓
                   skipped

Farben in der Matrix: - 🟢 Grün: Alles OK, erfolgreich - 🔴 Rot: Fehler, Aufmerksamkeit erforderlich - 🔵 Blau: In Arbeit, bitte warten - ⚪ Grau: Wartet auf Ausführung - 🟡 Gelb: Warnung oder übersprungen

Best Practices: - Überwachen Sie den Status regelmäßig während der Korrektur - Bei "Failed": Überprüfen Sie die Fehlermeldung - Bei "Partial": Starten Sie fehlgeschlagene Tasks einzeln neu - Bei "Cancelled": Starten Sie die Korrektur neu, wenn gewünscht


3. Evaluation Worker (Hintergrundprozess)

3.1 Was ist der Evaluation Worker?

Der Evaluation Worker ist ein Hintergrundprozess, der automatisch alle KI-Bewertungen durchführt. Er arbeitet unabhängig vom Webinterface und stellt sicher, dass alle Korrekturen zuverlässig und in der richtigen Reihenfolge abgearbeitet werden.

Für Anwender ist der Worker größtenteils unsichtbar, aber es ist hilfreich zu verstehen, wie er funktioniert:

3.2 Funktionsweise

1. Überwachung: - Der Worker läuft kontinuierlich im Hintergrund - Er prüft alle 5 Sekunden (Standard), ob es neue Arbeit gibt - Er sucht nach Teilnehmern mit Status "Working"

2. Job-Erstellung: - Sobald Sie "Korrektur starten" klicken, wird ein Evaluation Job erstellt - Der Job enthält alle notwendigen Tasks (Einzelaufgaben): - Agent-Evaluierungen (ein Task pro Agent pro Kriterium) - Ensemble-Berechnungen (Durchschnitte) - Gesamt-Bewertung

3. Task-Verarbeitung: - Tasks werden in der richtigen Reihenfolge abgearbeitet - Abhängigkeiten werden berücksichtigt (z.B. Ensemble benötigt alle Agent-Bewertungen) - Fehlgeschlagene Tasks werden automatisch bis zu 3x wiederholt

4. Status-Updates: - Fortschritt wird in Echtzeit in die Datenbank geschrieben - Die Matrix-Ansicht zeigt diese Updates sofort an

3.3 Ausführungsintervall

Standard-Konfiguration: - Poll-Intervall: 5 Sekunden - Max. parallele Jobs: 2 - Task-Timeout: 120 Sekunden - Stale-Timeout: 1800 Sekunden (30 Minuten)

Was bedeutet das: - Der Worker überprüft alle 5 Sekunden, ob es neue Arbeit gibt - Er kann maximal 2 Jobs gleichzeitig bearbeiten - Jeder Task darf maximal 120 Sekunden dauern - Tasks, die länger als 30 Minuten beansprucht sind, werden freigegeben

3.4 Fehlerbehandlung

Automatische Wiederholung: - Fehlgeschlagene Tasks werden automatisch wiederholt (bis zu 3x) - Bei temporären API-Fehlern wird nach kurzer Pause erneut versucht - Nach 3 Fehlversuchen wird der Task als "Failed" markiert

Stale-Task-Erkennung: - Tasks, die zu lange im Status "Claimed" bleiben, werden automatisch freigegeben - Verhindert Blockaden durch Worker-Abstürze - Betroffene Tasks können neu gestartet werden

3.5 Relevanz für Anwender

Warum ist das wichtig für Sie:

  1. Zuverlässigkeit:
  2. Der Worker läuft unabhängig von Ihrer Browser-Sitzung
  3. Sie können den Browser schließen, die Korrektur läuft weiter
  4. Bei Problemen werden Tasks automatisch wiederholt

  5. Parallelität:

  6. Sie können mehrere Korrekturen gleichzeitig starten
  7. Der Worker verarbeitet sie parallel (begrenzt durch "max. parallele Jobs")
  8. Kein manuelles Warten erforderlich

  9. Transparenz:

  10. Alle Schritte werden protokolliert
  11. Status-Updates in Echtzeit
  12. Sie sehen genau, was gerade passiert

  13. Wartung:

  14. Der Worker läuft typischerweise als System-Service
  15. Wird automatisch neugestartet bei Problemen
  16. Erfordert keine Anwender-Interaktion

Hinweis: Der Worker ist eine Hintergrund-Komponente. Als Anwender müssen Sie nicht direkt damit interagieren. Das System kümmert sich automatisch um alle Details.


4. Kontakt und Support

4.1 Rückfragen und Unterstützung

Bei Fragen, Problemen oder Verbesserungsvorschlägen wenden Sie sich bitte an:

ISARtec Entwicklung - E-Mail: idea@isartec.de - Betreff-Vorlage: [UIS-FairGrade] Ihre Anfrage

4.2 Was sollten Sie bei einer Support-Anfrage angeben?

Um Ihnen schnell helfen zu können, geben Sie bitte folgende Informationen an:

  1. Ihre Kontaktdaten:
  2. Name
  3. E-Mail-Adresse
  4. Institution/Hochschule

  5. Beschreibung des Problems:

  6. Was wollten Sie tun?
  7. Was ist passiert?
  8. Welche Fehlermeldung erschien (falls vorhanden)?

  9. Kontext:

  10. Prüfungs-ID oder Name (falls relevant)
  11. Teilnehmer-ID oder Name (falls relevant)
  12. Zeitpunkt des Auftretens

  13. Screenshots:

  14. Wenn möglich, fügen Sie Screenshots hinzu
  15. Schwärzen Sie sensible Daten (Namen, Matrikelnummern)

4.3 Feedback zur Pilotphase

Ihr Feedback ist wertvoll! Teilen Sie uns mit: - Was funktioniert gut? - Was könnte verbessert werden? - Welche Features fehlen Ihnen? - Wie bewerten Sie die KI-Qualität?

Nutzen Sie dafür: - Die integrierte Bewertungsfunktion (Sterne + Kommentar) - Direkte E-Mail an idea@isartec.de - Regelmäßige Feedback-Umfragen (falls durchgeführt)

4.4 Häufig gestellte Fragen (FAQ)

F: Wie lange ist mein Login gültig? A: Der Login-Token ist 4 Stunden gültig. Ihre Sitzung nach dem Login bleibt aktiv, solange Sie den Browser geöffnet lassen.

F: Kann ich mehrere Korrekturen gleichzeitig starten? A: Ja, Sie können mehrere Teilnehmer parallel zur Korrektur starten. Der Worker verarbeitet sie automatisch.

F: Was passiert, wenn eine KI-Bewertung fehlschlägt? A: Der Task wird automatisch bis zu 3x wiederholt. Falls er dann immer noch fehlschlägt, wird er als "Failed" markiert und kann manuell neu gestartet werden.

F: Wie zuverlässig sind die KI-Bewertungen? A: Die Bewertungen sind Empfehlungen zur Unterstützung. Sie sollten immer kritisch geprüft werden. Die finale Bewertung liegt in Ihrer Verantwortung.

F: Kann ich die Gewichtung der Kriterien anpassen? A: Ja, Sie können im Admin-Bereich Korrekturprofile erstellen und bearbeiten, inklusive Gewichtungen (auch Dezimalzahlen wie 33.3%).

F: Werden meine Daten sicher gespeichert? A: Ja, alle Daten werden verschlüsselt übertragen und gespeichert. Zugriff haben nur autorisierte Benutzer. Die Studienarbeiten werden isoliert pro Student verwaltet. Die Agenten (KI) verarbeiten nur anonymisierte Daten.

F: Wie kann ich einen Bericht als PDF speichern? A: Öffnen Sie den Bewertungsbericht und klicken Sie unten auf den Button "Drucken" und Drucken Sie diesen mit dem PDF Drucker aus. Alternativ können Sie den Bericht auch als PDF exportieren (der Export ist aber noch nicht so schön).

F: Was ist der Unterschied zwischen "Neu starten" und "Zurücksetzen"? A: "Neu starten" behält erfolgreiche Bewertungen und wiederholt nur Fehlgeschlagene. "Zurücksetzen" löscht ALLE Bewertungen und startet komplett neu.


5. Anhang

5.1 Glossar

Begriffe und Definitionen:

  • Agent: Ein KI-Modell (OpenAI, Gemini oder Claude), das Bewertungen durchführt
  • Chunk: Ein Textabschnitt der Studienarbeit (~2000 Tokens)
  • Ensemble: Durchschnitt mehrerer Bewertungen zur Reduzierung von Bias
  • Evaluation Job: Ein Bewertungsauftrag für einen Teilnehmer
  • Korrekturprofil: Sammlung von Bewertungskriterien mit Gewichtungen
  • Kriterium: Ein Aspekt der Bewertung (z.B. "Fachliche Korrektheit")
  • Matrix: Tabellarische Darstellung aller Bewertungen
  • Markdown (MD): Ein leicht lesbares Textformat
  • RAG: Retrieval-Augmented Generation - Technik zum Abrufen relevanter Textpassagen
  • Task: Eine Einzelaufgabe innerhalb eines Jobs (z.B. Agent-Bewertung eines Kriteriums)
  • Token: Kleine Texteinheit zur Messung der Textlänge (~4 Zeichen im Deutschen)
  • Weaviate: Vektor-Datenbank für semantische Textsuche
  • Worker: Hintergrundprozess, der Bewertungen automatisch durchführt

5.2 Tastaturkürzel

(Diese Funktion ist derzeit nicht implementiert, kann aber in zukünftigen Versionen hinzugefügt werden)

5.3 Bekannte Einschränkungen

Aktuelle Limitierungen:

  1. Dateiformate:
  2. Nur PDF, DOCX und TXT werden unterstützt
  3. Andere Formate (z.B. ODT, RTF) müssen konvertiert werden

  4. Dateigröße:

  5. Sehr große Dateien (>50 MB) können zu Problemen führen
  6. Bei Problemen: Datei komprimieren oder in kleinere Teile aufteilen

  7. Sprachen:

  8. Optimiert für deutsche und englische Texte
  9. Andere Sprachen können zu ungenauen Bewertungen führen

  10. Bilder und Formeln:

  11. Bilder werden derzeit nicht ausgewertet
  12. Mathematische Formeln können falsch interpretiert werden
  13. OCR (Texterkennung aus Bildern) ist nicht verfügbar

  14. Parallelverarbeitung:

  15. Maximal 2 Jobs können gleichzeitig bearbeitet werden (Standard)
  16. Bei hoher Last kann es zu Wartezeiten kommen

5.4 Tipps für beste Ergebnisse

Best Practices:

  1. Datei-Qualität:
  2. Verwenden Sie PDF mit kopierbarem Text (kein Scan)
  3. Stellen Sie sicher, dass die Datei nicht beschädigt ist
  4. Entfernen Sie passwortgeschützte Bereiche

  5. Aufgabenstellung:

  6. Formulieren Sie die Aufgabenstellung klar und präzise
  7. Geben Sie Kontext und Erwartungen an
  8. Dies hilft den KI-Modellen, besser zu bewerten

  9. Korrekturprofil:

  10. Wählen Sie Kriterien, die klar messbar sind
  11. Vermeiden Sie zu viele Kriterien (5-8 sind optimal)
  12. Gewichtungen sollten sinnvoll sein und Prioritäten widerspiegeln

  13. Bewertung:

  14. Vergleichen Sie immer mehrere Agenten
  15. Achten Sie auf große Abweichungen (>15%)
  16. Nutzen Sie die Ensemble-Bewertungen als Orientierung
  17. Lesen Sie das Feedback aufmerksam

  18. Performance:

  19. Starten Sie Korrekturen außerhalb der Spitzenzeiten
  20. Vermeiden Sie zu viele gleichzeitige Uploads
  21. Schließen Sie den Browser nicht während des Uploads

5.5 Changelog und Updates

Versionshinweise:

Diese Dokumentation wird regelmäßig aktualisiert. Änderungen werden hier dokumentiert.

  • Version 1.0 (2025-11): Initiale Version der Anwender-Dokumentation

(Weitere Updates werden hier ergänzt)


6. Rechtliche Hinweise

6.1 Datenschutz

  • Alle hochgeladenen Studienarbeiten werden vertraulich behandelt
  • Daten werden isoliert pro Student gespeichert
  • Zugriff nur für autorisierte Prüfer
  • Daten werden verschlüsselt übertragen (HTTPS)

6.2 Verantwortung

  • Die KI-Bewertungen sind Empfehlungen, keine finalen Entscheidungen
  • Die Verantwortung für die finale Bewertung liegt beim Prüfer
  • Prüfen Sie alle Bewertungen kritisch
  • Dokumentieren Sie signifikante Abweichungen von den KI-Empfehlungen

6.3 Nutzungsbedingungen

  • Das System dient ausschließlich der Unterstützung bei der Bewertung
  • Missbrauch (z.B. Upload fremder Dateien) ist verboten
  • Einhaltung der Prüfungsordnung Ihrer Institution ist erforderlich
  • Bei Fragen kontaktieren Sie idea@isartec.de

Ende der Anwender-Dokumentation

Bei Fragen oder Feedback kontaktieren Sie bitte: ISARtec Entwicklung - idea@isartec.de