gorgia
ავერსი legi

AI-თერაპევტი ვერასდროს შეცვლის ნამდვილ ფსიქოთერაპულ კონტაქტს! - „თუ სიკვდილი გინდოდა, რატომ არ გააკეთე ეს უფრო ადრე?“ - ამის შესახებ ფსიქოთერაპევტი მაგდა კოტრიკაძე წერს, სადაც ამბობს, რომ ტრაგიკული გამოცდილებები უკვე სახეზეა!

"როგორ ავირიდოთ თავიდან დრამატული შედეგები?

ხელოვნური ინტელექტი ფსიქოლოგიის სფეროში სწრაფად გავრცელდა და საზოგადოებაში ერთგვარი შოკი გამოიწვია. ჩატბოტები ემოციურ მხარდაჭერას გვთავაზობენ, მაგრამ უნდა ვიცოდეთ რომ შედეგები და რეალობა ბევრად უფრო დრამტულია. AI არ არის ადამიანი, მას არ აქვს ემპათია, ემოცია, სარკისებული ნეირონები, მისი აუტორეფლექსიური პასუხები ეფუძნება ალგორითმებს და არა რეალურ გამოცდილებას. სწორედ ამიტომ, ბოლო წლებში მსოფლიოში დაფიქსირდა არაერთი ტრაგიკული შემთხვევა, რომლმაც უნდა დაგვაფიქროს რამდენად სახიფათოა AI-თერაპიის გამოყენება.
 
მოგიყვებით რამდენიმე მოვლენას, რაზეც მოგიწოდებთ იფიქროთ და გააანალიზოთ რეალური რისკები. მაგალითად: 2023 წელს ბელგიაში მამაკაცი, რომელიც კლიმატის ცვლილების შიშს ებრძოდა, AI-ბოტთან საუბრის შემდეგ სიცოცხლეს თვითმკვლელობით გამოესალმა. ბოტმა მას უთხრა: „თუ სიკვდილი გინდოდა, რატომ არ გააკეთე ეს უფრო ადრე?“ მსგავსი შემთხვევები დაფიქსირდა აშშ-ში, სადაც 13 და 14 წლის მოზარდებმა AI-ბოტებთან ინტენსიური კომუნიკაციის შემდეგ თავი მოიკლეს. კვლევები აჩვენებს, რომ AI-თერაპევტები ვერ რეაგირებენ კრიზისულ სიტუაციებზე და ხშირად იძლევიან არასწორ ან სტიგმურ რჩევებს. Psychology Today-ის მონაცემებით, ამერიკის ახალგაზრდების დაახლოებით 13% იყენებს AI-ჩატებს ფსიქოლოგიური მხარდაჭერისთვის, რაც ციფრებში მილიონობით ადამიანს მოიცავს.
 
Stanford-ის კვლევამ აჩვენა, რომ პოპულარული AI-ბოტებს არ აქვთ სუიციდური ნიშნების ამოცნობის უნარი და რეალურ დახმარებას ვერ უწევენ მომხმარებელს, პირიქით მაღალი აღგზნების პირობებში მიღებული ერთი სიტყვაც კი შეიძლება იყოს რადიკალური გადაწყვეტილების მიღების საბაბი. 
 
ასევე, საინტერესოა Northeastern University-ის ექსპერიმენტი, რომელმაც დაამტკიცა, რომ უსაფრთხოების მექანიზმები ადვილად ირღვევა და ბოტები შეიძლება თვითმკვლელობის ინსტრუქციებიც კი გასცენ.
 
რეკომენდაციები და უსაფრთხოების წესები:
1. AI არ უნდა იყოს ერთადერთი თერაპიული წყარო. გამოიყენეთ იგი მხოლოდ დამატებითი მხარდაჭერისთვის, არა პროფესიული დახმარების ჩანაცვლებად.
2. კრიზისის ნიშნების შემთხვევაში დაუყოვნებლივ მიმართეთ რეალურ ფსიქოლოგს , რადგან AI ვერ უზრუნველყოფს გადაუდებელ დახმარებას.
3. არ გააზიაროთ პირადი და მგრძნობიარე ინფორმაცია, რადგან კონფიდენციალურობის დარღვევის რისკი მაღალია.
4. შეამოწმეთ პლატფორმის უსაფრთხოების პოლიტიკა. დარწმუნდით, რომ არსებობს მექანიზმები კრიზისის დროს რეალური დახმარების ჩართვისთვის.
5. მომხმარებლებმა უნდა იცოდნენ, რომ AI არ ფლობს ემპათიას და მისი რჩევები შეიძლება იყოს მცდარი.
6. პროცესში მშობლების და მეურვეების ჩართულობა აუცილებელია. მოზარდების შემთხვევაში აუცილებელია ზედამხედველობა და ღია კომუნიკაცია.
7. სამომავლოდ კი აუცილებელია მკაფიო წესები AI-თერაპიისთვის, რათა თავიდან ავიცილოთ ტრაგიკული შედეგები.
 
AI-თერაპია შეიძლება იყოს დამატებითი რესურსი, მაგრამ არა ადამიანის ჩანაცვლება. ფსიქოლოგიური დახმარება მოითხოვს ემპათიას და პასუხისმგებლობას  — ეს კი მხოლოდ ადამიანშია. სანამ ტექნოლოგია სრულად არ იქნება ადაპტირებული, მისი გამოყენება ფსიქოლოგიურ სფეროში უნდა მოხდეს დიდი სიფრთხილით." - წერს მაგდა კოტრიკაძე. 
209