deppfake

Ce este deepfake și cum te poți proteja de el?

22 minute • Tiberiu-Adrian Bălțăteanu • 19 noiembrie 2020


Câți dintre noi nu ne dorim să avem corpul Angelinei Jolie, Jason Momoa sau poate vocea suavă a actriței Edith Piaf ori cea a lui Selly? Ei bine, acum se poate. Cum anume, te întrebi? Hai să vorbim despre deepfake.

Deepfake

Cuvântul este format din unirea termenilor deep learning (procesul de învățare automată al calculatoarelor) și fake (care probabil nu necesită explicații speciale). Când vei folosi termenul deepfake, să știi că te referi la imagini care sunt prelucrate, unde fețele persoanelor sunt alterate, schimbate, pentru a fi înlocuite cu identitatea altcuiva.

Cum se întâmplă asta? Destul de simplu, se caută videoclipuri sau imagini în care apare persoana vizată și se trec într-un sistem de calcul. Algoritmul se antrenează, învață (prin deeplearning) despre persoana respectivă, mimica feței, trăsături, manierism, inflexiuni în voce și altele. Apoi, sunt generate noi ipostaze cu persoanele respective, conținut care poate părea foarte real și convingător, mai ales dacă este făcut cu mecanisme performante, de ultimă oră.

Practic, deepfake e rodul progresului tehnologiei din ultimii câțiva zeci de ani, având un puternic aspect manipulator. În acest articol vei afla de ce a apărut conceptul, cum este folosit, dar și implicațiile de ordin legal care pot apărea.

Când a apărut și de ce e problematic?

Primul exemplu major, cunoscut la nivel internațional, a apărut în noiembrie 2017. Atunci, un utilizator cu nickname-ul „deepfakes” a încărcat pe Reddit mai multe videoclipuri pornografice cu fețele unor celebrități.

Păi care ar fi problema?

În prezent oricine cu un telefon/laptop și o conexiune la internet poate crea un deepfake care să semene cu realitatea, ceea ce e destul de scary. Am identificat 3 mari provocări ale conceptului deepfake, pe care le voi aborda în mod separat.

  • FĂRĂ LIMITE. Există pe lumea asta 7,8 miliarde de oameni. Poți lua fața oricui, vocea oricui și să o modifici după bunul plac. Chiar și pe tine te poți pune în corpul idolului tău.
  • IMPOSIBIL DE DIFERENȚIAT. Tehnologiile actuale îți permit să generezi conținut care pare atât de real, încât e dificil să distingi între realitate și falsitate. Bineînțeles, calitatea nu se va compara cu cea pe care unele industrii (i.e. film) plătesc bani buni, dar vor putea oricum fi ușor de digerat pentru persoanele neatente.
  • ACCESIBILITATE. Oricând ai chef, poți descărca aplicații precum Faceswap, DeepFaceLab sau, mai nou, Zao ori Impressions. Te joci puțin cu ele până înveți cum funcționează și apoi ai la îndemână, la câteva tap-uri distanță, o adevărată armă a secolului 21.

La aceste 3 mari probleme, se adaugă și faptul ca vasta majoritate a oamenilor consumă informații, știri, dar și comunică predominant în mediul online. Rar din reviste/ziare în format tipărit. Aspectul vizat e destul de relevant, deoarece se face trecerea de la a edita doar imagini cu ajutorul Photoshop la a edita întregi videoclipuri cu oricine dorim. Și, bineînțeles, fiind cunoscut faptul că videoclipurile sunt mai de încredere, distincția adevărat-fals este îngreunată.

Mai mult, într-o lume atât de grăbită, se pune predominant accent pe volumul de informații cumulate, ci nu neapărat pe calitatea acestora. Astfel, puterea de gândire critică a individului are cel mai mult de suferit. Faptul că este extenuat la nivel mental din cauza flow-ului de informații din mediul online îi scade puterea de concentrare, de a filtra informațiile adevărate față de cele false.

Deepfake-urile sunt dificil de detectat, mai ales că se bazează pe material video real, pot avea sunet autentic, de calitate superioară, și sunt optimizate a se disemina pe rețelele de socializare rapid.

Care sunt implicațiile legale ale deepfake?

Problema principală creată de utilizarea deepfake-ului este generarea unui risc major ca poza/videoclipul să ajungă la un jurnalist fără ochi format, care nu suspectează ceva fraudulos în acel material. Astfel, acesta ar putea prelua o poveste fake, dar captivantă și de interes pentru publicul larg, și să decidă să o perpetueze în online prin intermediul surselor considerate „de încredere”. Deci, ar valida conținutul fals al știrii, ceea ce ar duce la potențiale consecințe de ordin patrimonial și/sau nepatrimonial, cum ar fi atingeri ale:

Suntem pregătiți să răspundem cu mecanisme legale?

Nu prea. Doar câteva țări au un cadru legal care să combată mediile digitale și mecanismele prin care acestea se pot desfășura. În acest sens, răspândirea fake news, incluzând deepfake, reprezintă o problemă reală, care trebuie abordată de instituțiile legislative la nivel statal, dar nu numai.

În Statele Unite ale Americii, în 2018, s-a elaborat Malicious Deep Fake Prohibition Act, care prevede stabilirea unei noi infracțiuni cu privire la crearea sau distribuirea materialelor electronice false, însă care au aparență reală. Un an mai târziu, s-a introdus și dispoziția al cărei scop este să combată răspândirea dezinformării prin restricționarea tehnologiilor care permit crearea videoclipurilor deepfake.

Cu toate acestea, conceptul deepfake nu este suficient înțeles la nivel mondial, deci eficiența unor măsuri luate cu rapiditate, nerealistic și în mod izolat trebuie pusă la îndoială. De exemplu, legea din SUA ar obliga creatorii de conținut să-și eticheteze materialele ca făcând sau nu parte din categoria deepfake ceea ce este, să fim serioși, o glumă bună.

Pentru Uniunea Europeană și România, lucrurile nu stau mai roz.

Cu privire la atingerea drepturilor de autor, trebuie știut că acesta este un drept neînregistrat care protejează operele literare originale. Neînregistrat pentru că îl deții în mod automat, din momentul în care creezi, de exemplu o poezie. Prin acest drept se dorește, pe de-o parte, protejarea creației autorului, iar, pe de altă parte, susținerea acestuia în a-și continua traseul său artistic.

Exemple de lucrări care sunt supuse reglementărilor în materia drepturilor de autor:

  • scrierile literare şi publicistice, conferinţele, predicile, pledoariile, prelegerile;
  • operele ştiinţifice, cum ar fi: studiile, cursurile universitare;
  • compoziţiile muzicale;
  • operele fotografice, precum şi orice alte opere exprimate printr-un procedeu analog fotografiei;
  • operele de artă plastică;
  • operele de arhitectură.

Merită să menționez cele două componente care alcătuiesc conținutul dreptului de autor, pentru a putea identifica perioada de protecție conferită de lege. Acestea sunt drepturile morale și drepturile patrimoniale de autor .

Drepturile morale de autor, și anume dreptul de divulgare, dreptul la paternitatea operei, dreptul la nume și dreptul de retractare a operei  au un caracter perpetuu și ele sunt atașate de persoana autorului.

În ceea ce privește drepturile patrimoniale de autor, adică dreptul de a utiliza opera și dreptul de suită, acestea persistă chiar și după moartea autorului, încă 70 de ani.

Cu privire la Regulamentul General privind Protecția Datelor (RGPD), imaginile persoanelor constituie date cu caracter personal conform Articolului 4 alineat 1, deoarece victima în acest caz reprezintă “o persoană fizică identificabilă este o persoană care poate fi identificată, direct sau indirect, în special prin referire la un element de identificare.”

Astfel, victimele utilizării materialelor deepfake ar putea, de asemenea, să apeleze la RGPD pentru a se asigura protecția drepturilor cu privire la datele lor personale. Cu toate acestea, în contextul de față, adică a unui material care este distribuit online și pe mai multe platforme sociale deodată, este improbabil ca identificarea inculpatului să fie un proces direct, scurt și la obiect.

Dreptul la ștergerea datelor (dreptul de a fi uitat), este garantat cetățenilor Uniunii Europene de către Articolul 17 RGPD, putând veni în sprijinul victimelor deepfake. Acest articol conferă posibilitatea victimei să solicite creatorului sau celui care a publicat materialul deepfake să șteargă datele cu privire la ea. Subiecții datelor cu caracter personal pot, de asemeni, să obiecteze pentru procesarea informațiilor în anumite circumstanțe, probabil care au aplicabilitate și aici.

Un obstacol pe care o victimă ar putea să îl înfrunte este faptul că RGPD este improbabil a se aplica în sensul strict al cuvântului, deoarece deepfake-urile sunt generate, cel mai des, cu ajutorul fotografiilor sau materialelor video publicate online, pentru oricine, de către victimă însăși (i.e. nu ai contul de Instagram pe modul privat, ci public, astfel că oricine îți poate vedea, descărca și folosi în scopuri mai puțin nobile selfie-urile alea faine de la mare).

Mai mult, cu toate că imaginile create pot părea reale, deepfake-urile ilustrează, inerent, un scenariu demn de un film science-fiction, e o luma ipotetică, imaginară, pentru care atingerea intimității umane nu ar fi o problemă per se.

Cu toate acestea, dacă s-ar întâmpla ca materialul grafic realizat de creator să releve detalii confidențiale (i.e. dacă o persoană victimă deepfake vorbește pentru a dezvălui lucruri certe cu privire la altcineva –  date cu privire la starea de sănătate), atunci s-ar putea ca plângerea în legătură cu încălcarea drepturilor persoanei să se aplice.

Totuși, ce facem cu rețelele de socializare? Pe ele nu le tragem la răspundere? Nu putem cere să șteargă pretinsul conținut fraudulos?

În prezent, majoritatea platformelor sociale, cum ar fi Facebook, Youtube sau Twitter, beneficiază de principiul Safe Harbour atât în SUA, cât și în Uniunea Europeană. Principiul presupune că platformele aderente nu pot fi trase la răspundere pentru conținutul postat de către utilizatori pentru încălcări ale dreptului de autor, decât dacă există notificare și cerere de ștergere a acestui conținut.

Mecanismul anterior descris a fost folosit de către unii autori pentru a șterge un material deepfake cu Kim Kardashian de pe YouTube. Astfel fotografilor și regizorilor li s-a deschis o posibilitate clară prin care își pot apăra drepturile de autor. Cu toate acestea, în unele jurisdicții este permisă folosirea deepfake-urilor puțin spre deloc dăunătoare, cum ar fi: caricaturi, parodii sau pamflete.

Care sunt industriile cele mai țintite de deepfake?

Pornografie

Atunci când te gândești la deepfake, cred că primul lucru care îți vine în minte este că Trump/Putin anunță public că vor apăsa butonul magic și vor declanșa niște bombe nucleare. Din fericire, până acum nu s-a întâmplat. Din nefericire, ceea ce se întâmplă de fapt este mult mai grav.

Cei de la Deeptrace au analizat starea deepfake-urilor din 2019 și au identificat 14,678 videoclipuri online, un număr aproape dublu față de cel din 2018. Ceea ce este scandalos, însă, este faptul că 96% din aceste materiale aveau conotații pornografice.

Cu toate că materialele false în domeniul pornografiei sunt o noutate, Deeptrace menționează că acestea atrag o gamă largă de vizualizatori, numărul total de vizualizări pe cele mai frecventate 4 website-uri dedicate fiind de peste 130 milioane.

Acum că ai înțeles intensitatea și nivelul la care s-a ajuns, poate aștepți să-ți spun și cum te poți apăra în cazul în care chiar tu vei fi în postura de victimă.

Răspunsul e complicat. Asta pentru că nu există la momentul actual o lege specială aplicabilă creațiilor deepfake în general, nici să nu mai vorbim despre subiectul ardent și actual al pornografiei.

Cea mai bună metodă este, probabil, a solicita ștergerea imaginii/videoclipului din online. Acest lucru ar fi realizabil dacă ar fi să apelăm la Articolul 72 Noul Cod Civil (dreptul la demnitate) și la Legea nr. 8/1996 privind dreptul de autor și drepturile conexe.

Invocarea dreptului la demnitate umană ar putea fi o unealtă chiar eficientă, deoarece persoana din videoclip nu este de fapt victima, ci doar poartă fața acesteia. Este cumva o eroare de fapt privind prezența victimei, deci s-ar putea teoretic obține o hotărâre definitivă care să ordone autorului să șteargă pozele/videoclipurile postate.

Dar cum faci atunci când nu știi cine a postat? Mai mult decât atât, este aproape imposibil să ștergi, din toate colțurile internetului, un videoclip odată ce a fost postat și ajuns cel puțin la alt om. Nu există vreo poțiune magică care să facă acest lucru, cel puțin nu în ziua de azi.

Același argument, cu privire la eroarea de fapt, ar putea fi adus și în sprijinul autorului. Chiar faptul că trupul victimei nu s-a aflat vreodată în ipostaza respectivă face dificil să existe o nelegalitate cu privire la violarea intimității persoanei. Nu poți da în judecată pe cineva pentru că a dezvăluit detalii intime despre viața ta, când nu a fost dezvăluită viața ta, ci doar fața ta, la care oricum toată lumea are acces, mai ales dacă ești o celebritate.

Dacă vorbim despre drepturile de autor, atunci povestea ar putea căpăta o nuanță de roz. Persoana care are drept de autor cu privire la videoclipul/imaginea inițială, originală, pe baza căruia s-a creat deepfake-ul, ar putea pretinde încălcarea Articolului 10 alineat d) din Legea nr. 8/1996 privind dreptul de autor și drepturile conexe, care se referă la “respectarea integrității operei și de a se opune oricărei modificări, precum și oricărei atingere aduse operei”. Desigur, se aplică principiul Safe Harbour, elaborat puțin mai sus.

Singurul obstacol care ar mai putea apărea este ca nici măcar persoana a cărui corp este real reprezentat în videoclip să nu dețină drepturi de autor. Excepția de la regulă ar fi în momentul în care corpul unei persoane este cognoscibil, are anume trăsături specifice (i.e. un tatuaj vizibil, de dimensiuni considerabile, unic).

Care-i treaba nasoală cu celebritățile? Din cauza doctrinei de figură/persoană publică, prin însăși poziția (i.e. om politic, antreprenori de succes, celebrități în diverse domenii) pe care o ocupă în societate, ei sunt mai vizați de presă. Astfel, în cazuri de încălcare a dreptului la demnitate sau violare a vieții private, acestora le va fi mai dificil să probeze pretențiile pe care le aduc în fața judecătorului, vor trebui să fie atent și foarte bine întemeiate. Un exemplu autohton este chiar artista Delia Matache. Fața acesteia a fost atașată corpului unei persoane dintr-un film pornografic. Videoclipul s-a răspândit rapid pe rețelele de socializare, ajungând la ea cât ai zice pește.

https://www.instagram.com/p/B_PgWwLjAxM/

Așadar, din punctul acesta de vedere, ai putea fi mai fericit dacă ești victima unui deepfake și nu te cunoaște multă lume (vedem partea plină a paharului).

Politică

Cum am menționat deja, multora le este frică de deepfake, deoarece ar fi folosite împotriva oamenilor politici importanți. Oricine ar putea crea un asemenea videoclip și să stârnească contracandidații la share masiv pe platformele de socializare. Din fericire, existând un număr redus de materiale false pe acest subiect, ele au fost folosite în principiu pentru a crea conținut amuzant, senzațional sau informativ.

De exemplu, aici poți vedea un videoclip în care fostul Președinte al SUA, Barack Obama, vorbește despre deepfake-uri, să fii conștient de existența lor pe internet, iar, ca o cireașă de pe tort, i se adresează foarte frumos lui Donald Trump.

Un alt exemplu ilustrativ este faptul că Nancy Pelosi, politiciană din SUA, a fost victima unui deepfake video, în care pare că se bâlbăie, că ar fi intoxicată cu alcool sau că a folosit substanțe etnobotanice. Însă, ceea ce e înfricoșător este puterea de distribuire a acestui tip de videoclip, însuși Trump dând share pe pagina lui de Twitter. Pe Facebook, videoclipul a ajuns la peste 2,5 milioane de oameni.

https://www.youtube.com/watch?v=EfREntgxmDs&t=85s&ab_channel=CBSThisMorning

Comunitatea de informații (i.e. SRI) este îngrijorată în legătură cu puterea deepfake-urilor de a amenința securitatea națională prin diseminarea unor știri false politice, perturbând astfel campaniile electorale.

Gândește-te cum ar fi ca serviciul de informații a altui stat să creeze un deepfake calitativ despre Klaus Iohannis în care folosește un limbaj etnic ofensator, desconsideră românii și spune că va acorda autonomie comunităților de origine maghiară și germană din România. Alternativ, s-ar putea crea un deepfake cu privire la Andreea Esca care anunță că bulgarii și ucrainenii ne vor ataca pe motiv că ei vor să fie vecini, deci am face bine să ne pregătim de război.

Exemplele sunt, într-adevăr, amuzante. Însă, cu instrumentele necesare, pot fi distructive și au puterea de a crea haos într-un timp foarte scurt, în special în lipsa unor mecanisme proprii de apărare.

Divertisment

Un motiv de bucurie, un avantaj al deepfake-urilor constă în utilizarea inteligentă a acestora. Tehnologia până acum prezentată are, chiar dacă nu îți vine să crezi, și utilizări legitime, cu precădere în industria cinematografică. Aici, se pot folosi fețe ale unor actori celebri, însă atașate corpului înlocuitorului (în caz de deces, absenteism pe o perioadă mai lungă etc.)

Pe de altă parte, aceleași fețe ale actorilor pot fi folosite și pentru uz propriu, cu scop pur distractiv. Un exemplu ar fi aplicația Impressions, cu ajutorul căreia poți atașa fața unor actori asupra unui videoclip în care apari tu, spunând ce spui tu în acel videoclip. Ar fi fain să-l auzi pe The Rock că-ți laudă tricepsul.

Cum tehnologia avansează constant și într-un ritm alert, va fi mai ușor pentru toată lumea în a crea deepfake-uri și, deoarece există puține limite pe internet, și acelea izolate, vor exista multe oportunități pentru creatorii de software deepfake.

Un exemplu clasic unde Inteligența Artificială a fost folosită pentru a putea continua filmările și a nu compromite întreaga serie, a fost în cazul lui Paul Walker, în cadrul Fast and Furious 7. Dar să nu crezi că este un caz izolat, mult-iubitul “Hold The Door” din Game of Thrones a fost și el editat digital.

Dacă ai mult timp la dispoziție, îți recomand să verifici lista interminabilă cu exemple din filme sau seriale, în care personajele au fost nițel editate.

Bineînțeles, sunt și cazuri în care echipa de producție decide să nu apeleze la dubluri digitale. De actualitate este faptul că, din nefericire, protagonistul Black Panther 1, Chadwick Boseman, a decedat în august 2020. Astfel, producătorii au decis să nu îl reînvie virtual în cazul filmului Black Panther 2, deoarece „ există doar un Chadwick, iar acesta nu mai este printre noi.”

Altă fațetă de actualitate și care merită adusă în discuție este cea a hologramelor.

Imaginează-ți cum ar fi să ai posibilitatea să mergi la concertul oricărui artist celebru, la care nu ai avut șansa să asiști, poate pentru că nu erai încă născut/ă când era el în viață. Ei bine, concerte cu hologramele lui Tupac, Michael Jackson sau Roy Orbison sunt doar câteva exemple de concerte reușite ale hologramelor decedaților artiști.

Din punct de vedere legal, pentru stabilirea unui standard privind drepturile de autor, în 1886 a fost elaborată Convenția de la Berna. Cu toate acestea, nu există legislație specială pentru dreptul de autor cu privire la holograme, însă acestea sunt considerate drepturi de autor dacă sunt rezultatul a cel puțin o operă creativă.

Totuși, treaba e cam ambiguă. În ajutor vine Asociația Internațională a Producătorilor de Holograme (IHMA), care a eliberat un ghid cu privire la folosirea hologramelor și posibilele ciocniri cu drepturile de autor ale artiștilor. Mai mult, se recomandă dispozițiile pe care un contract de acest tip ar trebui să le conțină, cine deține drepturi de autor sau drepturi morale.

Dacă vrei și tu să ai propria hologramă cu idolii tăi, felicitându-te la ziua ta de naștere, poți lua legătura cu Kanye West. El i-a oferit soției lui, Kim Kardashian, o hologramă cu imaginea tatălui ei, care este mort de aproape 2 decenii.

În Florida, există Muzeul Salvador Dalí, unde o hologramă a lui Dalí primește vizitatorii, aceștia din urmă putând interacționa cu artistul. Mai mult, la plecare, artistul propune vizitatorilor să facă un group selfie, pe care ți-l trimite imediat prin SMS.

În fine, poate balanța înclină totuși spre a spune că existența hologramelor, a deepfake-urilor este în favoarea umanității. Așa crede și marele pictor Dalí, care afirmă, în ultima sa declarație publică din 1989, că „Atunci când ești un geniu, nu ai drept la moarte, pentru că suntem indispensabili progresului umanității.”

Cum putem preveni răspândirea deepfake?

Momentan, suntem în punctul în care un deepfake poate fi ușor observabil cu ochiul liber. Totuși, nu mai dura foarte mult până când tehnologia va progresa până în punctul în care nici cei mai antrenați oameni în a distinge materialele reale față de cele false nu vor mai putea face față.

Până în prezent, s-au făcut puține demersuri în abordarea acestei probleme. Oamenii de la conducere, cel mai probabil, nu conștientizează încă importanța și efectele devastatoare pe care deepfake-ul le-ar putea produce în viitorul apropiat. Este, deci, un moment oportun să aduc în vedere câteva măsuri care s-ar putea dovedi utile în combaterea acestor materiale false.

Îmbunătățirea legislației

Fără doar și poate, fenomenul deepfake este unul nou, iar reglementări în acest sens nu există încă. Cu toate că acestea nu vor stopa direct producerea deepfake-urilor, ar putea avea un efect intimidator, oamenii gândindu-se de 2 ori înainte de a distribui o informație pe care o văd clar ca fiind falsă.

Oricum, cel mai probabil aceste măsuri de ordin legal vor avea sens până când oamenii de rând nu-și vor mai dea seama ce e fake și ce e real, ceea ce mă duce cu gândul la a doua măsură.

Antrenarea calculatoarelor pentru a identifica deepfake

În acest sens, majoritatea platformelor de socializare deja au asta în vedere și lucrează la elaborarea unor mecanisme defensive. Pe de altă parte, o agenție a Departamentului Apărării al Statelor Unite (DARPA) lucrează la un program numit SemaFor.

Acest “semafor” are rolul de a verifica mașinile (conținutul) care vor să treacă de pod (filtru de verificare) și să ajungă la festivalul de expoziție (social media).  Acest semafor va ajuta în identificarea materialelor grafice considerate alterate, pentru ca toate mașinile să respecte regulile expoziției.

Folosirea blockchain

De pildă, persoanele ar putea să folosească tehnologia blockchain pentru a semna digital lucrările cu scopul de a valida conținutul acestora. Cu cât mai multe persoane ar face asta, cu atât acel material ar fi mai veritabil.

Bineînțeles, nici această metodă, aplicată singular, nu ar face mare diferență, deoarece e greu de probat nivelul de cunoștințe a persoanelor care semnează cu privire la conținutul respectiv.

Educarea

Poate cea mai la îndemână metodă este ridicarea nivelului de conștientizare a populației  cu privire la conceptul deepfake. Cu toții avem o contribuție la răspândirea acestui fenomen, fie că dăm un share aparent inofensiv, că promovăm folosirea aplicațiilor dedicate ori doar suntem ignoranți cu privire la acest trend.

Ce se va întâmpla în viitor?

Avem obligația de a ne pregăti pentru o lume în care vom fi zilnic expuși unui melanj de materiale grafice false, dar și adevărate. Răspândirea și dezvoltarea inteligenței artificiale cu siguranță va implica și alte aspecte de ordin etico-moral, care vor pune în pericol acceptarea lor în societate.

În astfel de mediu, ar fi crucial să îți îmbunătățești gândirea critică, simțul de cercetător și răbdarea, în special la informațiile pe care le consideri  importante. Dar nu poți să lupți singur, motiv pentru care implicarea autorităților cu putere de reglementare este vitală. În acest domeniu au responsabilitatea să se asigure că algoritmii nu vor fi folosiți cu rea-credință, cum ar fi distribuirea știrilor false, promovarea discriminării, controlul oamenilor de rând sau a campaniilor electorale.

Prevalența deepfake va crește cu siguranță, ceea ce face ca practicienii dreptului să fie puși într-o situație nouă. Vor trebui să fie informați cu privire la fenomenul deepfake, și să ajute oamenii în a distinge adevărul de falsitate. Un alt aspect ar fi importanța identificării corecte a surselor legale care le-ar putea veni în ajutor. Pe de altă parte, nici măcar dovezile audio-video aduse de victimă nu vor mai putea fi ușor de crezut, motiv pentru care atenția, diligența în general vor fi abilități cheie în aflarea adevărului, implicit rezolvarea unei spețe.

Poză de Lucrezia Carnelos pe Unsplash

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *