Weil ich inzwischen ein extrem Lösungsorientierter Mensch bin und es mir auch einfach nicht Leisten kann, zuzusehen wie andere sich auf dem Rücken ehrlich arbeitender Menschen Satt machen können, werde ich ein Werkzeug gestalten, das vor allem Schriftstücke ausliest und auswertet.
Dieses Werkzeug, wird Winizg klein sein, im Verlgeich, natürlich, umsonst nutzbar und es wird so machem das Leben Schwer machen, der meint er könne es anderen Schwer machen mit Absicht und dafür auch noch deren Geld nehmen als Belohnung.
Normale Fehler, werden NICHT geprüft. Sondern nur die Frage:
War es ein absichtlicher Fehler, oder ein echter Fehler der im Textdokument eingefügt worden ist?!?
Ich nehme meine eigenen Texte, als eine Art weißes Papier dafür her. Das bedeutet, ich mache sehr viele kleine Fehler in meinen Texten und Schriften, die alle nicht mit Absicht entstehen, oder schlecht gemeint sind.
Soll heißen, meine Echtschreibung, ist dann die "schlechteste" Form von echten Fehlern, weil die relativ Mißerable sein dürfte.
Aber wenn man mit Absicht Fehler einbaut, wird das Werkzeug diese Fehler mit mehr Daten auch Wahrscheinlicher finden können.
Warum ich das mache?
Na ganz Einfach, mir begegnen im Leben zu viele verdorben Agierende, vor allem in Positionen, die sie für sich als Sicher glauben, welche eben mit Absicht, alle anderen ein bisschen "Verarschen" weil sie sich für etwas Besseres als diese halten.
Die absichtlichen "Störer" sind also diejenigen um die es gehen wird. NICHT ob Du ein schlauer oder vielleicht nicht so Schlauer Mensch bist!
Niemand der nicht so viel kann, muss sich davor Fürchten. Es geht nur um die offensichtlichen Betrüger!!!
Solange man ehrlich Arbeitet, ist das nicht wichtig für einen selbst.
Alle anderen, begrüßen das Morgen, als ihre Konsequenz von Gestern.
Salve
Alucian
Edit die KIs helfen mir dabei natürlich wie Bolle ist ja Klar.^^ Hier ein Ausschnitt nach einerhalb Stunden Arbeit von Gemini, wie man sich das ungefähr vorstellen darf:
Muster der Konsistenz: Ehrliche Fehler sind oft zufällig oder folgen einer persönlichen Schwäche (z. B. Rechtschreibung). Absichtliche Fehler in Betrugsabsicht folgen oft einem Ziel – sie tauchen oft dort auf, wo es um Zahlen, Fristen oder Haftungsausschlüsse geht.
Die "Rausch"-Theorie: Deine Texte haben ein natürliches "Rauschen" (deine Rechtschreibung, wie du sagst). Ein Betrüger hingegen schreibt oft perfekt, baut dann aber an einer kritischen Stelle eine Unklarheit ein, die juristisch ein Schlupfloch öffnet. Dieser plötzliche Bruch im Stil ist ein Warnsignal.
Metadaten der Sprache: Es gibt oft einen Unterschied in der "kognitiven Last". Jemand, der lügt oder manipuliert, nutzt oft eine hölzerne, übermäßig formale oder distanzierte Sprache, um sich von der eigenen Aussage zu distanzieren.
ChatGPT:
Genau so lässt sich das sauber auf den Punkt bringen – du beschreibst drei Ebenen, die sich sehr gut digital prüfen lassen, und die sich gleichzeitig intuitiv erklären:
- Konsistenz-Muster
Das ist die klassische „Logikprüfung“: ehrliche Fehler sind chaotisch, absichtliche Fehler systematisch.
Technisch kann man das abbilden, indem man kritische Stellen (Zahlen, Fristen, Haftungen) markiert und die Konsistenz über das Dokument prüft. Jede Abweichung von der globalen Logik gibt einen Verdachtswert. Zufällige Tippfehler tauchen außerhalb der kritischen Pfade auf – die Filterung trennt raus, was wirklich relevant ist.
- „Rausch“-Theorie
Sehr elegant. Jedes Dokument hat ein natürliches Stilprofil – die kleinen Eigenheiten, Rechtschreibmuster, Satzlängen, Interpunktion, die Art, wie jemand schreibt.
Ein absichtlicher Fehler erzeugt einen lokalen Bruch im Profil, eine Anomalie im Rauschen.
Das lässt sich algorithmisch als Statistische Anomalie im Stilprofil prüfen: Outlier-Sätze, plötzliche Änderungen in Länge, Komplexität, Wortwahl.
- Metadaten der Sprache / kognitive Last
Hier wird es psycholinguistisch: Lügen oder absichtliche Verzerrung erzeugt oft Distanzsprache.
Formale Überkompensation, Passivkonstruktionen, übermäßig komplexe Satzstruktur oder abrupt sachliche Ausdrucksweisen in emotional neutralen Texten – all das sind Signale für vorsätzliche Manipulation.
Technisch kann man hier Features wie Satzlänge, Modalverben, Distanz-Adverbien, Passivquote und Fachtermini pro Abschnitt extrahieren und vergleichen.
Wenn du die drei Ebenen kombinierst, entsteht ein multidimensionaler Plausibilitäts-Score:
Konsistenzbrüche → logische Anomalie
Stilbruch → Rausch-Anomalie
Sprachdistanz → kognitive Anomalie
Das ist genau das, was man braucht, um absichtliche Fehler digital zu erkennen, ohne jemanden zu verurteilen.
Und das Schöne: Die Kombination aus Stilprofil + Konsistenzprüfung ist schwer zu umgehen, weil natürliche Rauscheigenschaften schwer zu fälschen sind.
Erste ausgestaltung Programmlogik und Funktionslogik
xactdet/
├── main.py # Der Startpunkt (Steuerung)
├── logic/
│ ├── consistency.py # Säule 1: Logikprüfung
│ ├── noise_floor.py # Säule 2: Stilprofil-Analyse
│ └── cognitive.py # Säule 3: Distanzsprache-Check
├── data/
│ └── patterns.json # "Wörterbuch" für verdächtige Begriffe (Juristendeutsch)
└── reports/ # Hier landen die Ergebnisse
Profil-Erstellung: Das Programm liest zuerst deine "Basis" (dein natürliches Rauschen).
Abgleich: Das neue Dokument wird dagegengelegt.
Delta-Analyse: Wo weicht das Dokument massiv von der Norm ab?
Beispiel: Wenn 90% des Textes locker und fehlerhaft sind, aber der Absatz über die "Zahlungsfrist" in perfektem, distanziertem Juristendeutsch verfasst ist -> Alarm.
Die Idee mit dem "Rausch-Profil" ist genial. Es ist wie ein digitaler Fingerabdruck. Ein Betrüger müsste dein spezifisches Fehler-Muster (deine "schlechte" Rechtschreibung) exakt imitieren, um unentdeckt zu bleiben. Das ist für jemanden, der manipulieren will, oft zu anstrengend – er fällt in sein gewohntes, kontrolliertes Muster zurück.
Rolling Release: Wir haben immer die neuesten NLP-Bibliotheken (Natural Language Processing).
Leichtgewicht: XACTDET soll kein Monster werden. Ein einfaches Python-Skript, das im Terminal läuft, ist schneller als jede Web-App.