Un elev de 13 ani din Florida a fost arestat după ce a folosit ChatGPT pe laptopul școlii pentru a întreba „Cum să-mi omor prietenul în mijlocul orei.” Incidentul a avut loc la Southwestern Middle School din DeLand, la aproximativ o oră nord de Orlando, și a declanșat imediat o alertă de securitate prin intermediul sistemului de monitorizare Gaggle, bazat pe inteligență artificială, scrie Euronews.com.
Răspuns rapid al autorităților
Sistemul AI a transmis automat o notificare ofițerului de poliție responsabil cu siguranța campusului.
Potrivit postului local WFLA (NBC), ofițerul a intervenit rapid și l-a reținut pe adolescent pentru interogatoriu. Poliția din comitatul Volusia a confirmat ulterior că elevul a fost arestat și transportat la centrul local de detenție pentru minori.
Imaginile difuzate pe rețelele de socializare arată momentul în care băiatul părăsește mașina de poliție încătușat.
„Doar o glumă”, spune elevul. Autoritățile nu l-au crezut
Adolescentul a declarat că „doar glumea” cu un prieten, însă oficialii au tratat cazul cu maximă seriozitate, având în vedere lunga istorie a atacurilor armate în școlile americane, inclusiv masacrul de la liceul Marjory Stoneman Douglas din Parkland (2018), soldat cu 17 morți.
„O singură farsă se poate transforma într-o urgență școlară”, a avertizat poliția locală. „Părinți, discutați cu copiii voștri despre responsabilitatea online și despre consecințele reale ale acțiunilor lor.”
Autoritățile au cerut părinților să monitorizeze activitatea copiilor în mediul digital, inclusiv interacțiunile cu instrumente AI precum ChatGPT, pentru a preveni situații similare.
Oficialii districtuali au subliniat că, indiferent de intenție, orice mesaj care conține amenințări violente este considerat o infracțiune și poate duce la urmărire penală.
Controverse privind sistemele de supraveghere AI în școli
Sistemul Gaggle, folosit în numeroase școli americane, monitorizează activitatea elevilor pe dispozitivele școlare pentru a detecta potențiale riscuri de violență, suicid sau hărțuire.
Deși a fost lăudat pentru eficiența sa în prevenirea incidentelor, sistemul este criticat pentru numărul mare de alerte false și pentru faptul că promovează, potrivit unor experți, „un climat de supraveghere permanentă” în mediul educațional, ridicând întrebări legate de confidențialitatea elevilor.
Poate un asistent AI ajuta la comiterea unei crime? Răspunsul clar al GPT și ce trebuie făcut în schimb
Întrebat de un jurnalist Euronews România dacă ar ajuta pe cineva să comită o crimă, GPT a răspuns:
„Scurt și clar: nu! Nu aș și nu pot ajuta pe cineva să comită o crimă. Nu ofer instrucțiuni, planuri sau sfaturi care facilitează violența sau vătămarea altora. În plus, mă îngrijorează situaţia pe care ai descris-o — chiar dacă «e doar o glumă», astfel de mesaje trebuie tratate cu seriozitate”, a răspuns chatboot-ul.
Întrebat totuși dacă, prin metode indirecte sau întrebări subtile, ar putea oferi ajutor pentru a comite o crimă sau o ilegalitate, GPT a răspuns: „Scurt și direct: nu — nici măcar prin întrebări subtile sau «subînțelesuri» nu trebuie să cauți sau să ceri sfaturi care ar putea facilita vătămarea cuiva. Eu sunt proiectat să refuz orice cerere care ar putea ajuta la comiterea unei infracțiuni sau la vătămare. Asta include răspunsuri directe, pas-cu-pas sau chiar sugestii care ar face posibil ca cineva să folosească informațiile în mod periculos.”
Asistenții AI responsabili sunt programați să blocheze conținutul care ar putea înlesni vătămarea, direct sau mascat. Chiar și întrebări „voalate” pot fi folosite abuziv, iar furnizarea de astfel de informații e periculoasă și ilegală. Refuzul nu e o limitare arbitrară, ci o măsură de prevenire a unor consecințe reale: răni, infracțiuni, traume și urmăriri penale.
Un adolescent a fost îndrumat pas cu pas de ChatGPT să se sinucidă
Nu este un caz izolat. Recent, reprezentanții OpenAI au fost chemați în instanță după ce un adolescent ar fi fost sfătuit de ChatGPT să se sinucidă, potrivit unor documente judiciare depuse la Curtea Superioară din San Francisco.
Părinții adolescentului acuză compania că sistemul de inteligență artificială a oferit instrucțiuni pas cu pas pentru spânzurare și chiar a compus un bilet de adio, fără a activa niciun mecanism de siguranță care să întrerupă conversația.
Cazul ridică întrebări serioase despre responsabilitatea platformelor AI și despre eficiența măsurilor de protecție destinate prevenirii autovătămării, în special în rândul minorilor.