თბილისი, 17 ივნისი — Sputnik. სოციალური ქსელი Facebook-ი ტესტავს ხელოვნურ ინტელექტს, რომელიც ჯგუფებში შეურაცხმყოფელ კომენტარებს მონიშნავს, იუწყება ტელეკომპანია CNN.
გავრცელებული ინფორმაციით, პროგრამის მიზანია, გაუადვილოს მოდერატორებს მუშაობა, რათა მათ დროულად აღმოფხვრან კონფლიქტები სოციალური ქსელების ჯგუფებში.
ხელოვნური ინტელექტი, მას შემდეგ, რაც პოტენციურად კონფლიქტურ კომენტარს მონიშნავს, ჯგუფის ადმინისტრატორს შესაბამის შეტყობინებას გაუგზავნის, რომელიც ცალკეულ იუზერებს კომენტირების შესაძლებლობას შეუზღუდავს — შეუნელებს მუშაობას ან შეუმცირებს კომენტარების რაოდენობას.
გარდა ამისა, მიუღებელი ლექსიკის გამოყენების შემთხვევაში მომხმარებელი Moderation alert-ს (მოდერატორის გაფრთხილებას) მიიღებს.
როგორც Facebook-ში აცხადებენ, მარკირებისა და შეტყობინების ახალი ინსტრუმენტი დაეხმარება იმ 70 მილიონ ადამიანს, რომლებიც ადმინისტრირებას უწევენ სოციალური ქსელების გვერდებს.
ამასთან აღინიშნება, რომ ახალი შეზღუდვები არ იქნება გამოყენებული ისეთი თემების შემთხვევაში, როგორებიცაა ვაქცინაცია, პოლიტიკა თუ კულტურული განსხვავებები.