Cum poate fi folosită inteligența artificială în asistența socială

Inteligența artificială (IA) nu înlocuiește asistentul social. Dar, folosită responsabil, poate reduce birocrația, crește accesul la informații și susține deciziile profesionale – cu condiția să rămână „om-în-buclă” (human-in-the-loop), să respecte confidențialitatea și să evite discriminarea. Mai jos găsești câteva informații despre cum poți folosi IA în siguranță în asistență socială.

Unde ajută IA, concret (cu utilitate imediată)

1) Reducerea timpului administrativ (documentare)

  • Transcriere și sumarizare a interviurilor/ședințelor (voce→text, apoi rezumat structurat în stil SOAP:
    • S – Subjectiv: ce spune beneficiarul/familia (percepții, simptome, citate scurte).
    • O – Obiectiv: fapte observabile și date verificabile (comportamente, scoruri, documente, prezență/absență).
    • A – Analiză / Assessment: interpretarea profesională – sensul datelor (progres/riscuri vs. PII, ipoteze, priorități).
    • P – Plan: pașii concreți stabiliți (cine face ce, până când, cu ce indicator).
  • Draft de documente repetitive: adrese către UAT/DAS/DGASPC, informări, minute, rapoarte periodice (revizuite întotdeauna de asistentul social).
  • Traducere pentru beneficiari vorbitori de alte limbi și adaptare în limbaj ușor (plain language) pentru persoane cu alfabetizare limitată.

2) Orientare și informare pentru public

  • Chatboți/Asistenți virtuali pe site-ul serviciului: eligibilitate, acte necesare, programări, adrese utile.
  • Mesagerie automată cu răspunsuri verificate (FAQ) și trimitere către om când cazul devine complex.

3) Sprijin în luarea deciziilor (NU decizie automată)

  • Triaj & prioritizare: semnalarea cazurilor care par urgente (după cuvinte-cheie sau tipare), pentru ca omul să decidă.
  • Screening text pentru detectarea temelor recurente (violență, locuire, adicții) în note și sesizări – ajută la planificarea intervențiilor.
  • Analiză de rețea (e-map digital) – vizualizarea rapidă a actorilor implicați.

4) Management de caz & coordonare interinstituțională

  • Remindere inteligente (revizuiri PII, reevaluări), urmărirea indicatorilor din planul de intervenție.
  • Tablouri de bord (dashboards) cu situații agregate: stadiu PII, termene, indicatori de rezultat (ex. frecvență școlară, acces la prestații).

5) Incluziune & accesibilitate

  • Cititor de ecran, subtitrări automate, rezumate vocale; instrumente care ușurează interacțiunea pentru persoane cu dizabilități, vârstnici, beneficiari cu dificultăți de citire.

Ce NU ar trebui să facă IA în asistența socială

  • Să decidă singură eligibilitatea, prestarea unui serviciu sau separarea copilului de familie.
  • Să profileze sau „noteze” persoane/familii (social scoring).
  • Să folosească date sensibile (sănătate, etnie, religie etc.) fără temei legal clar, consimțământ informat și minimizare strictă a datelor.
  • Să fie opacă: beneficiarul are dreptul să știe că a fost utilizat un instrument asistat de IA și că decizia finală aparține unui profesionist.
  • „Scor social” sau decizie automată pentru accesul la servicii – interzise/reglementate strict de AI Act; în serviciile cu risc înalt, se impun management de risc, calitate a datelor, om în buclă și transparență.
  • Emoții „citite” automat la serviciu/în educație sau scraping facial la scară largă – interdicții explicite în AI Act art. 5.
  • Prelucrare opacă a datelor personale: GDPR cere DPIA pentru proiecte IA cu risc, „privacy by design/default”, temei legal clar și informare. EDPB (European Data Protection Board / Comitetul European pentru Protecția Datelor) a precizat recent condițiile pentru folosirea datelor la antrenarea modelelor IA.
  • IA cu beneficiari copii: UNICEF cere 9 garanții (echitate, siguranță, explicabilitate, participare); relevante pentru servicii de protecția copilului.

Cadru etic și legal – pe înțelesul practicii din România/UE

  • GDPR + Legea 190/2018: baze legale, minimizare de date, transparență, DPIA (evaluare de impact asupra protecției datelor – art. 35 GDPR) când riscurile sunt ridicate.
  • UE – Legea IA (AI Act):
    • interzice „social scoring” și limitează puternic recunoașterea biometrică;
    • consideră „înalt-risc” sistemele care influențează accesul la servicii publice esențiale – relevant pentru asistența socială (presupun audit, management de risc, transparență și om-în-buclă);
    • cere guvernanță, documentație, testare și monitorizare.
  • Codul deontologic: confidențialitate, demnitate, lucru în parteneriat cu beneficiarul, ne-discriminare, supervizare.
  • Principiu cheie: IA sprijină, nu înlocuiește judecata profesională.

Ce soluții poți testa chiar acum (cu risc redus)

  • Transcriere + rezumat meeting: instrumente de speech-to-text locale sau cloud, apoi revizuire umană.
  • Asistent de redactare pentru adrese standard, minute, chestionare – cu șabloane aprobate și verificare.
  • Chatbot FAQ pe site (programare, acte, hărți servicii) + buton „Vorbește cu un asistent social”.
  • Traducere & adaptare în limbaj ușor a materialelor informative.
  • Curățare/anonimizare automată a documentelor înainte de partajare (eliminarea numelor, adreselor etc.).

Riscuri frecvente & cum le reduci

  • Halucinații/erori (mai ales la modele generative) → review obligatoriu, „dublă semnătură” la documente externe.
  • Bias/discriminare (date istorice inegale) → testează pe sub-grupuri, consultă colegi din diverse servicii, corectează regulile/greutățile.
  • Scurgeri de date → nu pui date personale în instrumente publice; folosești variante on-premise sau cu contracte solide și criptare; separi mediile de test de cele reale.
  • Dependență de furnizor → export de date, formate deschise, clauze de portabilitate.
  • „Automatizare a injustiției” → nu folosi IA pentru scoruri unilaterale; păstrează dreptul la explicație și contestare.

Mini-politică internă „3 reguli de aur”

  1. Om în buclă – nicio decizie automată în detrimentul beneficiarului.
  2. Minimizare & confidențialitate – doar datele strict necesare, acces pe rol, logare și audit.
  3. Transparență & explicabilitate – spui când folosești IA, păstrezi dovezile, poți explica de ce ai decis X.

Competențe & cultură profesională pentru era IA

  • Alfabetizare digitală + protecția datelor (GDPR) pentru toată echipa.
  • „Prompting” responsabil & verificare critică (cum formulezi cerințe, cum verifici surse și fapte).
  • Supervizare regulată pe cazurile asistate de IA (discuții despre limite, bias, dileme etice).
  • Participare a beneficiarilor la design: feedback real despre utilitate și efecte.

Întrebări frecvente

Putem lăsa IA să „decidă” cine primește un serviciu?
Nu
. În UE, astfel de sisteme intră la risc înalt sau practici interzise; decizia trebuie să fie umană, explicabilă și contestabilă.

Ce facem cu bias-ul?
Testăm pe sub-grupuri, audităm periodic și nu folosim IA fără om în buclă. Exemplele din AFST/HCI arată că intervenția umană bine proiectată reduce disparitățile.

E ok să pun date reale în instrumente publice?
Nu
. Fără contract DPA (Data Processing Agreement = contractul de prelucrare între operator și împuternicit -art. 28 GDPR) și garanții tehnice, evitați datele personale; faceți DPIA (=analiză internă a riscurilor și măsurilor – ghidul oficial WP29/EDPB explică când și cum se face).

IA poate deveni un multiplicator de timp și calitate în asistența socială: mai puțin timp la birocrație, mai mult lângă oameni. Cheia este implementarea responsabilă: începi cu utilizări cu risc scăzut, păstrezi om-în-buclă, măsori rezultate, revizuiești etic și legal. Acolo unde miza e mare (eligibilitate, măsuri de protecție), IA doar informează, iar decizia rămâne umană.

Lecturi recomandate

  • NASWAI and Social Work; Standards for Technology in Social Work Practice. (cadru etic și responsabilitate profesională) NASW+1
  • BASWGenerative AI & Social Work Practice Guidance (riscuri, confidențialitate, verificare critică). basw.co.uk
  • UEAI Act (rezumat + pagină oficială CE) și Art. 5 (interdicții). Artificial Intelligence Act EU+2Digital Strategy EU+2
  • EDPBOpinion 28/2024 on AI models (temeiuri legale, (non)anonimitate, DPIA). EDPB+1
  • UNICEFPolicy Guidance on AI for Children (9 cerințe pentru IA centrată pe copil). UNICEF
  • OMS/WHOEthics & Governance of AI for Health (principii aplicabile și în servicii sociale cu componentă de sănătate). World Health Organization
  • Studii de caz & critică: Chouldechova et al. (AFST); Emily Keddell (fairness & justiție); Virginia Eubanks (Automating Inequality). Proceedings of Machine Learning Research+2MDPI+2

NB: Articol scris cu sprijinul IA.