Cum știm dacă un text este generat?

#Inteligență Artificială #ChatGTP #Chat Gemini #LLM

May 05, 2025

Formă abstractă fluidă pe fundal negru, simbolizând subtilitatea filigranării AI și identificarea conținutului digital.

Modelele lingvistice mari (LLM), precum ChatGPT sau Gemini, generează text atât de realist încât diferențierea între textele umane și cele artificiale devine o problemă dificilă. O soluție esențială în acest context este filigranarea textului AI – o tehnică subtilă prin care se pot identifica textele generate automat.

Filigranarea constă în integrarea discretă de semnale sau coduri în modul în care AI-ul își selectează cuvintele. Aceste modificări sunt imperceptibile cititorului obișnuit, însă pot fi detectate cu algoritmi specializați. Scopul principal este combaterea plagiatului, a dezinformării și protejarea drepturilor de autor.

Principalele metode de filigranare sunt:

  1. Filigranarea statistică: Modificări subtile în frecvența anumitor cuvinte.
  2. Caractere Unicode invizibile: Inserarea de caractere speciale invizibile, simplu de implementat, dar și de eliminat.
  3. Semnături criptografice: Încorporarea unei semnături digitale verificabile cu o cheie publică.


Detectarea filigranului implică algoritmi care analizează devieri statistice sau semnături criptografice ascunse. Analiza stilistică (stylometric fingerprinting) poate fi utilizată complementar pentru o acuratețe mai mare.

Importanța filigranării AI:

  • Integritate academică: Verificarea autenticității lucrărilor.
  • Protecția drepturilor de autor: Identificarea ușoară a sursei originale.
  • Combaterea dezinformării: Limitarea propagării conținutului generat automat.
  • Reglementare: Respectarea legislației europene privind transparența conținutului generat artificial.


Totuși, filigranarea nu este perfectă: parafrazarea, traducerea și comprimarea pot elimina aceste semnale. Cercetările actuale vizează metode mai rezistente la astfel de manipulări.

Filigranarea textului AI devine astfel crucială pentru gestionarea responsabilă și transparentă a conținutului digital.

Surse:

  • Aaronson S. & al., „Statistical Watermarking for Large Language Models”, arXiv 2023.
  • Google DeepMind, „SynthID-Text: Robust Watermarking at Scale”, Whitepaper 2024.
  • WIPO, „Technology Trends 2025 – Generative AI”, Geneva, WIPO Press.

Articol scris de:

Inginer software Deep-Tech dedicat inovării și optimizării sistemelor complexe. Expertiză solidă în Inteligență Artificială, C++, Embedded Systems, Web Design și dezvoltare Full Stack.[end]Abordez provocările tehnice cu o combinație unică de expertiză tehnică, logică matematică și principii de raționament, dezvoltând soluții software inovatoare, scalabile și performante.