Skip to main content

So zuverlässig sind KI-Prüfungstools – wie False Positives zustande kommen und wie du am besten damit umgehst

Künstliche Intelligenz – die neue Technologie erzeugt viel Aufsehen, sorgt aber auch für Unsicherheit. Wie gehst du sicher, dass der bestellte Text wirklich aus der kreativen Feder eines realen Schreibers stammt? Sind KI-Prüfungstools die Lösung und wie interpretierst du die Ergebnisse dieser Anwendungen? Wir haben für dich recherchiert und geben dir einen Einblick, was hinter den Kulissen bei Textbroker abläuft und welche Rolle KI-Prüfungstools dabei spielen.

Wie funktioniert ein KI-Checking-Tool überhaupt?

 
Hand aufs Herz – als du zum ersten Mal so ein Tool benutzt hast, hast du doch auch geglaubt, dass die Prozentzahl dir sagt, wie viel vom Text mit KI erstellt wurde, oder? Schließlich hörst du überall, dass KI-Prüfungstools versprechen, Texte zu erkennen, die mit ChatGPT oder ähnlichen KI-Textgeneratoren erstellt sind. Leider ist das nicht ganz korrekt. Solche Tools arbeiten mit Wahrscheinlichkeiten und geben dir tatsächlich keine andere Info als diese: Mit einer Wahrscheinlichkeit von X Prozent wurde der geprüfte Text mit KI erstellt.
 
Woher es das wissen will? Das Prinzip dahinter ist recht simpel. Grundsätzlich bauen diese KI-Checking-Tools selbst auf einem Sprachmodell mit Künstlicher Intelligenz wie ChatGPT auf. Damit prüfen die Tools, wie wahrscheinlich es ist, dass der kontrollierte Text mit der Hilfe von KI erstellt wurde. Das KI-Prüfungstool kalkuliert, welches Wort im Text am wahrscheinlichsten folgt. Da die KI mit ähnlichen Sprachmodellen arbeitet, ergibt sich auf diesem Weg eine hohe Übereinstimmung bei KI-Texten. Ist der Text hingegen selbst geschrieben, sollten die Abweichungen tendenziell so groß sein, dass das KI-Checking-Tool den Text als manuell erstellt identifiziert – soweit die Theorie.
 
Ein weiterer Punkt, den die KI-Prüfungstools kontrollieren, sind Rechtschreib- und Grammatikfehler. Fehler in Texten sind ärgerlich, aber sie sind menschlich. Die KI macht hingegen keine Rechtschreibfehler und so kann ein absolut fehlerfreier Text ein Indiz für einen KI-generierten Text sein. Natürlich bedeutet das im Umkehrschluss nicht, dass ein fehlerfreier Text automatisch von der KI stammt – oder dass Fehler automatisch ein Beweis für menschliches Schaffen sind. KI ist genauso wenig unfehlbar wie ein Mensch.

Kreativität vs. Wahrscheinlichkeiten

 
Zwei weitere Faktoren, die solche KI-Checking-Tools prüfen, sind „Perplexität” und „Burstiness”. In beiden Fällen gilt, dass ein hoher Score anzeigt, dass ein Mensch den Text geschrieben haben soll.

Perplexität

 
Was Perplexität in Texten bedeutet, erkennst du gut an einigen Beispielen:
 



Niedrige Perplexität


Höhere Perplexität


„Die Familie ging zum Bahnhof, um mit dem Zug wegzufahren.“



„Die Familie ging zum Bahnhof, um die Freunde vom Zug abzuholen und direkt gemeinsam mit E-Scootern in den Zoo zu fahren.“

 
Der erste Satz hat eine sehr wahrscheinliche Fortsetzung, was eine niedrige Perplexität bedeutet. Die Inhalte bauen logisch aufeinander auf und der zweite Satzteil ist genau das, was man als Leser oder Leserin am wahrscheinlichsten erwarten würde. Und genau darin liegt der Knackpunkt: Die KI erzeugt sehr häufig Sätze mit erwartbaren Inhalten, denn die Kreativität, die unsere Autoren in die Erstellung von Texten einfließen lassen, fehlt der Künstlichen Intelligenz.
 
Texte mit hoher Perplexität sehen hingegen eher wie der zweite Satz aus. Es gibt eine Wendung im Erzählverlauf, die weit weg vom Inhalt des ersten Teils ist. Dass die KI so einen Satz erstellt, ist eher unwahrscheinlich. Die künstliche Intelligenz erzeugt nämlich fast immer plausible Sätze mit vorhersehbarer Wendung.

Burstiness

 
Mit der Burstiness bewerten die KI-Prüfungstools dann die Variation innerhalb der Sätze. Damit sind vor allem die Länge und Struktur der Sätze gemeint. Die KI baut Sätze gerne nach demselben Schema auf und agiert repetitiv. So ist auch die Länge der Sätze meist konstant und es gibt wenig Variationen. Menschen nutzen im Gegensatz dazu in der Regel eine Mischung aus kurzen sowie langen Sätzen, wechseln zwischen Aktiv und Passiv oder verwenden unterschiedliche Satzstellungen. Eine hohe Einstufung bei der Burstiness soll also ein Anzeichen für einen Text sein, den ein Mensch verfasst hat.

KI-Prüfungstools sind nicht unfehlbar

 
Dass Prüfungstools KI-Texte identifizieren können, hört sich im ersten Moment gut an. Leider sind die Werkzeuge aber nicht unfehlbar. Das liegt vor allem daran, dass die Prüfungstools und die Technologie sich genauso wie die KI-Textgeneratoren ständig weiterentwickeln. Absolut verlässlich sind die Ergebnisse der KI-Checking-Tools also nicht und bedauerlicherweise kommt es nicht selten zu sogenannten False Positives, also Ergebnissen, bei denen von Menschen geschriebene Texte fälschlicherweise als KI-generiert eingestuft werden.
 
Die Präzision wird in früheren Tests aus dem Jahr 2023 in der deutschen Sprache auf etwa 60 % geschätzt. Dieses Ergebnis beinhaltet Texte, die von der KI stammen und nicht identifiziert werden, ebenso wie einen Text, den ein Mensch geschrieben hat und der vom Prüfungstool als KI-generiert eingestuft wird.

Mögliche Gründe für False Positives

 
Gerade die Punkte Perplexität und Burstiness können häufig für falsche Ergebnisse sorgen. Beispielsweise geben bestimmte Textarten eine spezifische Struktur vor oder erlauben wenig Freiheiten, was die Formulierungen und Kreativität betreffen. News-Artikel oder Listen-Artikel müssen beispielsweise einem ganz bestimmten erwartbaren Aufbau folgen. Auch Firmen- und Servicebeschreibungen erfordern bestimmte Inhalte und Formulierungen.
 
Texte, bei denen der Autor aufgrund von rechtlichen Rahmenbedingungen bestimmte Formulierungen einbauen oder auf klare Aussagen verzichten muss, sind ebenfalls anfällig für False Positives. Das ist zum Beispiel bei Texten aus dem Gesundheitsbereich oder dem Finanzsektor der Fall: Hier müssen Autoren Wirkversprechen vermeiden und deshalb erwartbare Formulierungen und Hilfsumschreibungen verwenden, die gerne KI-Textgeneratoren zugeschrieben werden.
 
Kurze Texte sind mitunter ebenfalls problematisch. Hier sind einfach nicht ausreichend Anhaltspunkte vorhanden, mit denen das Tool eine objektive Bewertung vornehmen könnte. Aus diesem Grund sollten die Ergebnisse von KI-Prüfungstools als Indiz gewertet werden, keinesfalls aber als unfehlbares Ergebnis. Für KI-Erkennungstools gilt deshalb genau der gleiche Grundsatz wie für alle anderen Tools: Sie wurden von Menschen für Menschen gemacht und es braucht immer einen Nutzer, der die Ergebnisse prüft und interpretiert!


Wie zuverlässig sind KI-Prüfungstools also wirklich?

 
Um genau zu verstehen, wie False Positives möglich sind, schauen wir uns an, welche Informationen ein KI-Prüfungstool dir in diesen Ergebnissen überhaupt liefert. Diese Werkzeuge geben dir nämlich keine absolute Antwort auf die Frage, ob ein Text durch eine KI erzeugt wurde. Vielmehr bewerten die Werkzeuge prozentual, wie hoch die Chance ist, dass ein Text von einem Menschen oder der KI stammt. Beispielsweise sagt eine Prozentangabe von 75 nicht aus, dass eine KI wie ChatGPT und Co. 75 % des Textes generiert hat. Das bedeutet nur: Die Wahrscheinlichkeit, dass die KI in irgendeiner Form beim Schreiben zum Einsatz kam, liegt laut diesem Tool bei 75 %.
 
Mehr darüber, wie du die Ergebnisse interpretierst, erfährst du im Blog-Artikel von Originality.ai zum Thema. Copyleaks gibt zusätzlich in diesem PDF mit den häufigsten Fragen zum KI-Detektor gute Beispiele, was für sein Tool alles unter KI-Nutzung fällt.
 
Die Betreiber der KI-Prüfungstools werben mit einer hohen Präzision. Oftmals nennen diese Werte von über 90 % bei der Trefferquote. Im Umkehrschluss bedeutet das aber auch, dass selbst die Anbieter ihre eigenen Tools nicht als fehlerfrei einstufen. False Positives – also ein Fall, bei dem ein Mensch einen Text verfasst hat und das Tool aus verschiedenen Gründen die KI als Ersteller vermutet – können also durchaus auftreten. Das betonen die Betreiber auch selbst in ihren FAQs und Blogbeiträgen, wie du weiter unten nachlesen kannst. Für den Autor, der sich viel Mühe bei der Texterstellung gegeben und keine KI eingesetzt hat, ist das natürlich besonders ärgerlich. Wir haben zwei der bekanntesten KI-Prüfungstools auf dem Markt getestet und dabei viele interessante Entdeckungen gemacht.

Unser Test: Das sind die Ergebnisse

 
Wir haben vier deutsche Testtexte durch die Prüfungstools laufen lassen: zwei Kategoriebeschreibungen für ein fiktives Online-Kaffeeverkaufsportal und zwei Leistungsbeschreibungen für einen fiktiven Schlüsseldienst. Je eine davon haben menschliche Autoren verfasst, die zwei anderen stammen von der Künstlichen Intelligenz. Warum diese Textarten? Weil unsere Erfahrung ist: Texte mit erwartbaren Inhalten und erwartbarem Wording sind anfälliger für False Positives als Textgattungen, bei denen Autoren größeren kreativen Freiraum haben.
 
Dabei haben wir explizit Texte in deutscher Sprache gewählt, um zu prüfen, wie die Tools performen. Viele KI-Prüfungstools wurden nämlich zunächst für die englische Sprache entwickelt und zeigen im Englischen bessere Ergebnisse (so nachzulesen beispielsweise in den FAQs von Copyleaks). Wir wollten spezifisch prüfen, ob die Ergebnisse auch bei deutschsprachigen Texten verlässlich sind. Zusätzlich haben wir unsere vier Texte in verschiedenen Eingabeformaten hochgeladen: einmal direkt als Word-Datei sowie einmal über das Texteingabeformular auf der Webseite des KI-Prüfungstools, dann jeweils noch mit und ohne HTML-Formatierung.
 
Eine ganz wichtige Sache vorweg: Natürlich ist die Menge der getesteten Texte gering, deswegen können und wollen wir keine Aussagen zu statistischer Genauigkeit der Ergebnisse der Tools treffen. Dieser Test dient rein zur Veranschaulichung und ist als Denkanstoß gedacht.

Copyleaks im Test

 
Copyleaks ist das erste Tool im Test:
 



Uploadart/Format


Testtext 1: Mensch (Kategorietext)


Testtext 2: Mensch (Leistungsbeschreibung)


Testtext 3: KI (Kategorietext)


Testtext 4: KI (Leistungsbeschreibung)


Upload von Word Files mit HTML


0 % KI



0 % KI



0 % KI



0 % KI




Upload von Word Files ohne HTML


0 % KI



100 % KI



100 % KI



100 % KI




Upload in Texteingabemaske über Copy & Paste mit HTML


0 % KI



0 % KI



0 % KI



0 % KI




Upload in Texteingabemaske über Copy & Paste ohne HTML


100 % KI



100 % KI



100 % KI



100 % KI


 
Den ersten, menschlichen Text markiert das Tool dreimal als 0 % AI – nur bei der direkten Texteingabe ohne HTML ist sich Copyleaks sicher, dass der Text zu 100 % von der KI stammt – und liegt an dieser Stelle daneben. Beim zweiten Text, der ebenfalls von einem menschlichen Autor verfasst wurde, zeigt der Copyleaks AI Detector nur zweimal an, dass der Text eindeutig aus menschlicher Hand stammt. Beim Upload des Textes ohne HTML-Formatierung liegt das Tool jedoch wieder falsch und zeigt 100 % KI an. Genau dieses Ergebnis wiederholt sich bei Text drei und vier – dabei sind diese vollständig von der KI erzeugt.
 
Hier ist wichtig zu wissen: Die HTML-Formatierung wird beim Upload in beiden Formen in sogenannte “HTML entities” umgewandelt. Das scheint das Ergebnis zu verfälschen. Hier also schonmal eine grundsätzliche Empfehlung: Wenn du Texte prüfen lassen willst, dann am besten ohne HTML-Formatierung!

Originality.ai im Test

 
Den exakt selben Test wiederholen wir mit Originality.ai, spezifisch dem Multi-Language-Modell, das für Sprachen außer Englisch konzipiert wurde:
 



Uploadart/Format/Modell


Testtext 1: Mensch (Kategorietext)


Testtext 2: Mensch (Leistungsbeschreibung)


Testtext 3: KI (Kategorietext)


Testtext 4: KI (Leistungsbeschreibung)


Upload von Word Files mit HTML, Multi Language


50 % KI



97 % KI



100 % KI



6 % KI




Upload von Word Files ohne HTML, Multi Language


50 % KI



99 % KI



100 % KI



100 % KI




Upload in Texteingabemaske über Copy & Paste mit HTML, Multi Language


50 % KI



97 % KI



100 % KI



6 % KI




Upload in Texteingabemaske über Copy & Paste ohne HTML, Multi Language


51 % KI



100 % KI



100 % KI



100 % KI


 
Den ersten, von einem Menschen geschriebenen Text, bewertet das Tool mit 50 bis 51 % als KI-generiert. Beim zweiten Text, der ebenfalls von einem menschlichen Autor stammt, zeigt Originality.ai sogar 97 bis 100 % KI an. Den dritten Text identifiziert Originality.ai korrekt als 100 % KI, unabhängig davon, in welcher Form wir den Upload vornehmen. Beim vierten Text hingegen zeigt es die Texte mit HTML-Formatierung als mit einer Wahrscheinlichkeit von nur 6 % KI-erzeugt an. Beim Upload ohne HTML ist das Ergebnis mit 100 % KI wieder korrekt.

Das sagen die Betreiber der Tools

 
Wir haben außerdem die Betreiber der KI-Prüfungstools Copyleaks und Originiality.ai zu der Genauigkeit ihrer Tools befragt. Wir wollten von ihnen wissen, unter welchen Umständen die Tools die besten Ergebnisse liefern, warum es zu False Positives kommen kann und ob die Verwendung von Schreibtools wie Rechtschreib- und Stilprüfungstools auch einen Einfluss auf das Ergebnis haben kann. Von beiden bekamen wir Rückmeldungen per Mail, die wir dir hier kurz zusammenfassen.

Copyleaks

 
Laut dem Anbieter liefert der AI-Detector erst ab einer bestimmten Textlänge zuverlässige Aussagen. Diese liege bei 350 Zeichen, wenn du die Browser-Erweiterung nutzt, und bei 255 Zeichen bei der Webanwendung. Copyleaks führt False Positives unter anderem auf den Einsatz von zusätzlichen Tools zurück, die Texte optimieren. Beispielsweise bietet LanguageTool.org neben der Rechtschreibprüfung auch eine Funktion, mit der du Sätze umformulieren kannst. Hier kommt KI zum Einsatz, sodass die KI-Prüfungstools dies durchaus erkennen. Jedoch spricht Copyleaks hier nicht von einem False Positive, sondern von einer korrekten Identifizierung:
 
“Während Schreibassistenztools schon seit einiger Zeit KI verwenden, haben sich viele Plattformen so entwickelt, dass sie Large Language Models (LLMs) verwenden, um Teile des Inhalts umzuschreiben, was dazu führen kann, dass der Text als KI gekennzeichnet wird, was technisch gesehen kein falsches Positiv ist, sondern eher eine korrekte Erkennung von KI-Inhalten” (übersetzt aus dem Englischen).
 

Ein weiterer Punkt ist die Sprache. Laut Copyleaks arbeitet das Prüfungstool am besten bei englischen Texten. Andere Sprachen wie Deutsch, Französisch oder Italienisch unterstützt das KI-Prüfungstool zwar ebenfalls, jedoch ist die Zuverlässigkeit hier noch nicht so hoch.

Copyleaks betont, dass sie in internen Tests mit 1000 Texten in englischer Sprache keine False Positives hatten, wenn die Texte von einer Rechtschreibprüfung korrigiert wurden:
 
“Um den Schwellenwert zu bestimmen, ab dem von Schreibassistenten bearbeitete Inhalte als KI gekennzeichnet werden, haben wir einen Test mit zwei KI-gesteuerten Schreibprogrammen durchgeführt: mit Grammarly und dem Copyleaks Schreibassistenten.
Für den Test wurden 1.000 zufällige Dateien aus einem öffentlichen Essay-Datensatz englischsprachiger Texte gesammelt. Der Datensatz ist so angelegt, dass er nur auf Englisch ist und keine KI enthält. Die Aufsätze wurden dann mit Copyleaks Writing Assistant und Grammarly bearbeitet. Hier sind die Ergebnisse: Tausend von Menschen erstellte Dateien wurden mit dem Copyleaks Schreibassistenten bearbeitet, wobei in jeder Datei im Durchschnitt etwa 35 % der Änderungen vorgenommen wurden. Diese aktualisierten Dateien wurden mit dem Copyleaks AI Detector gescannt. Alle 1.000 Dateien wurden als menschliche Inhalte erkannt.” (übersetzt aus dem Englischen; mehr Informationen liefert Copyleaks im Blogbeitrag “Do Writing Assistants Like Grammarly Get Flagged As AI?”)
 
Kommen hingegen Funktionen zur Verbesserung des Satzbaus zum Einsatz, hat das Prüfungstools 31,6 % der Texte als KI-generiert identifiziert. Als Hauptgründe für False Positives nennt Copyleaks folgende Ursachen: “Obwohl der Copyleaks AI-Detektor eine False-Positive-Rate von 0,2 % hat, besteht immer die Möglichkeit, dass ein von Menschen verfasster Text als KI gekennzeichnet wird. Dies kann aus mehreren Gründen geschehen: Der Inhalt wurde mit einem Schreibassistenten bearbeitet, der genAI-gestützte Funktionen wie GrammarlyGo verwendet, was wahrscheinlich als KI eingestuft wird. Der Inhalt wurde mit einem Text-Spinner oder einem ähnlichen Tool verändert. KI wurde verwendet, um eine Gliederung oder Vorlage zu erstellen.” (übersetzt aus dem Englischen)
 
Vor kurzem hat Copyleaks auch einen Beitrag veröffentlicht, der diese Sachverhalte nochmal erklärt: “How Does AI Detection Work?”. Ausführliche Erklärungen gibt es auch in ihrem PDF mit den häufigsten Fragen zum Copyleaks-Tool.

Originality.ai

 
Ähnlich fällt das Feedback von Originality.ai aus, die uns auf ihren ausführlichen Help-Center-Beitrag verweisen. Der Anbieter betont außerdem, dass ein Score von 40 % nicht bedeutet, dass die KI 40 % des Textes erstellt hat:
 
“Unser KI-Detektor gibt die Wahrscheinlichkeit an, dass ein Inhalt von KI oder Original (von Menschen erstellt) stammt. Er liefert einen Confidence Score. 60 % Original und 40 % KI bedeutet, dass das Modell den Inhalt für Original (von Menschen geschrieben) hält und 60 % Vertrauen in seine Vorhersage hat.” (Quelle: Originality.ai, “AI Detection Score Meaning”)
 
Das Tool bewertet also die Wahrscheinlichkeit, dass KI in irgendeiner Form bei der Erstellung des Textes zum Einsatz kam. Das kann auch bedeuten, dass die KI nur als Content-Planning-Tool oder zur Rechtschreibprüfung verwendet wurde (Quelle: Originality.ai, “Most Common Reasons for False Positives With Originality” ). In einem Beitrag zu False Positives geht Originality.ai sogar so weit, zu sagen: “Wenn eine beliebige Menge an KI den Inhalt berührt, kann dies dazu führen, dass der gesamte Artikel als KI gekennzeichnet wird.” (übersetzt aus dem Englischen; Quelle: Originality.ai, “AI Content Detector False Positives – Accused Of Using Chat GPT Or Other AI?”).


Warum ist es überhaupt so wichtig, KI bei der Texterstellung zu identifizieren?

 
Viele Kunden legen Wert darauf, dass die Texte nicht von der KI stammen. Dafür gibt es gute Gründe. Zum einen weist ein Text, der von einem echten Autor stammt, grundsätzlich eine höhere Qualität und mehr Tiefe auf. Zum anderen geht es auch um die Richtigkeit der Inhalte. Das trifft besonders auf die sogenannten YMYL-Themen („Your Money Your Life”) zu. Geht es nämlich um Themen wie Gesundheit, Recht oder finanzielle Ratschläge, müssen die Informationen absolut verlässlich und inhaltlich korrekt sein. Das Fachwissen und eine gewissenhafte Recherche durch den Autor übertreffen hier die Möglichkeiten der KI bei Weitem.
 
Außerdem gibt es die Befürchtung, dass KI-generierte Texte in den Suchmaschinen schlechter ranken. Aus diesen Gründen geben wir bei Textbroker dir als Auftraggeber bei der Briefingerstellung die Möglichkeit, zu wählen, ob und in welchem Umfang du die Künstliche Intelligenz bei der Texterstellung zulassen möchtest.
 

Eine wichtige Frage bleibt dabei aber: Interessiert es Google überhaupt, ob ein Text von einem Menschen geschrieben oder von KI generiert wurde? Google selbst sagt dazu, dass die Qualität des Contents oberste Priorität hat:
 
“Unser Fokus liegt auf der Qualität von Inhalten und nicht darauf, wie sie produziert werden. So können wir schon seit Jahren zuverlässige, hochwertige Suchergebnisse liefern.” (Quelle: Leitfaden der Google Suche zu KI-generierten Inhalten)
 
Der Internetriese betont, dass nutzerorientierte Inhalte im Mittelpunkt stehen. Hauptsache, dein Content bringt Nutzerinnen und Nutzern einen Mehrwert!
 
Hier stellt sich außerdem die Frage, ob Google wirklich zuverlässig KI-Inhalte erkennen kann. In diesem Zusammenhang ist das E-E-A-T-Update von Google zu erwähnen, in dessen Rahmen der Suchmaschinenbetreiber seine Richtlinien für die Qualitätsevaluatoren erweitert hat. E-E-A-T steht kurz für “Experience” (Erfahrung), Expertise, “Authoritativeness” (Autorität) und “Trustworthiness” (Vertrauenswürdigkeit). Damit sind wir wieder beim oben angesprochenen Mehrwert oder das, was Google “Helpful Content” nennt: Nutzerinnen und Nutzer sollen darauf vertrauen können, dass die Inhalte vertrauenswürdig, inhaltlich korrekt und einzigartig sind und von einer Person stammen, die Erfahrung und Fachwissen mitbringt. So stuft Google Inhalte, die diese Kriterien erfüllen, höher ein. Das trifft vor allem auf Texte zu, die aus der Feder von realen Autoren stammen – oder zumindest von diesen gründlich und gewissenhaft überarbeitet wurden.

Unsere abschließenden Tipps zum Umgang mit False Positives

 
Dass Kunden sich Texte wünschen, die ganz ohne die Künstliche Intelligenz entstehen, ist nachvollziehbar und wir wollen das natürlich gewährleisten. Aus diesem Grund prüfen wir grundsätzlich alle Texte mit unserem eigenen Prüfungstool. Findet unser KI-Checker einen vermeintlich „verdächtigen” Text, führen wir zusätzlich eine manuelle Kontrolle durch.
 
In dieser Prüfung verlassen wir uns auf unsere Erfahrung, unser kompetentes Editorenteam und darauf, dass wir den Schreibstil unserer Autorinnen und Autoren über die Jahre tiefgehend kennengelernt haben. Wir setzen also nicht ausschließlich auf ein KI-Prüfungstool, sondern vielmehr auf eine Kombination aus verschiedenen Bewertungskriterien und das Know-How erfahrener Mitarbeiter, um die Texte korrekt einzustufen.
 
Dennoch kann es natürlich vorkommen, dass ein externes KI-Prüfungstool den Einsatz von KI bei der Texterstellung vermutet, wenn du deine Texte selbst prüfst. Wie bereits erwähnt, bedeutet die Vermutung eines KI-Tools jedoch nicht automatisch, dass der Text durch oder mithilfe von Künstlicher Intelligenz erstellt wurde. Wünschst du explizit einen Text mit einem Score von 0 Prozent KI in einem Tool deiner Wahl, dann kannst du dies mit dem Autor im Rahmen einer DirectOrder absprechen. Natürlich stehen auch wir als Ansprechpartner bereit, wenn du Unterstützung benötigst oder weitere Fragen zum Thema hast.
 
Das bedeutet für dich als Auftraggeber: Es ist gut und richtig, dass es solche Tools gibt, schließlich können sie dir eine Hilfe sein und Anhaltspunkte liefern. Du solltest die Ergebnisse aber immer mit Vorsicht genießen und sie auf mögliche Gründe für False Positives untersuchen:
 

  • Ist der Text überhaupt lang genug für ein aussagekräftiges Ergebnis?
  • Hast du das richtige Tool für deine Sprache ausgewählt?
  • Erfordert der Text, bestimmte Inhalte, Strukturen und Formulierungen, die das Ergebnis beeinflussen können?
  • Könnte der Autor einfach nur Rechtschreib- und Stilprüfungstools zur Optimierung hinzugezogen haben?

 
Wenn du diese Punkte berücksichtigst und die Ergebnisse der KI-Prüfungstools stets mit einer Portion gesundem Menschenverstand hinterfragst, kommst du sicherlich zu einer guten Einschätzung. Und wenn nicht? Dann sind wir natürlich für dich da – mit unserem Wissen, unserer Erfahrung und unserer bewährten Freelance-Community.

 
Wie sind denn deine Erfahrungen mit KI-Prüfungstools? Teile sie mit uns in den Kommentaren!


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*

Managed-Service

Sie wollen komplette Textprojekte auslagern und hochwertige Qualitätstexte erhalten? Sie interessieren sich für weitere Content-Services wie etwa Suchmaschinenoptimierung nach WDF*IDF oder die Verwaltung Ihres Blogs? Dann lernen Sie unseren Managed-Service kennen und profitieren Sie von unserem Rundum-Sorglos-Paket.

Unverbindliches Angebot anfordern!

Self-Service

Sie benötigen aktuellen Text-Content? Im Self-Service können Sie Ihren Wunschtext schnell und einfach selbst beauftragen – und das zu Top-Konditionen.

Jetzt kostenlos registrieren!

Autoren

Tausende Autoren weltweit verdienen beim Pionier unter den Textbörsen Geld mit ihren Texten. Sie entscheiden selbst, wann und wie viel sie schreiben und können sich ein flexibles Einkommen sichern. Erfahren Sie hier, wie Sie Ihre Texte zu Geld machen.

Jetzt kostenlos registrieren!