კონფლიქტები აღარ იქნება: Facebook-ი ახალ პროგრამას ტესტავს

მარკირებისა და შეტყობინების ახალი ინსტრუმენტი ადმინისტრატორს საშუალებას მისცემს, სწრაფად შეზღუდოს ადამიანებს შორის კონფლიქტი ჯგუფებში.
Sputnik

თბილისი, 17 ივნისი — Sputnik. სოციალური ქსელი Facebook-ი ტესტავს ხელოვნურ ინტელექტს, რომელიც ჯგუფებში შეურაცხმყოფელ კომენტარებს მონიშნავს, იუწყება ტელეკომპანია CNN.

გავრცელებული ინფორმაციით, პროგრამის მიზანია, გაუადვილოს მოდერატორებს მუშაობა, რათა მათ დროულად აღმოფხვრან კონფლიქტები სოციალური ქსელების ჯგუფებში.

Facebook-ი პოსტებს აღარ წაშლის: კომპანია განმარტავს

ხელოვნური ინტელექტი, მას შემდეგ, რაც პოტენციურად კონფლიქტურ კომენტარს მონიშნავს, ჯგუფის ადმინისტრატორს შესაბამის შეტყობინებას გაუგზავნის, რომელიც ცალკეულ იუზერებს კომენტირების შესაძლებლობას შეუზღუდავს — შეუნელებს მუშაობას ან შეუმცირებს კომენტარების რაოდენობას.

გარდა ამისა, მიუღებელი ლექსიკის გამოყენების შემთხვევაში მომხმარებელი Moderation alert-ს (მოდერატორის გაფრთხილებას) მიიღებს.

როგორც Facebook-ში აცხადებენ, მარკირებისა და შეტყობინების ახალი ინსტრუმენტი დაეხმარება იმ 70 მილიონ ადამიანს, რომლებიც ადმინისტრირებას უწევენ სოციალური ქსელების გვერდებს.

ამასთან აღინიშნება, რომ ახალი შეზღუდვები არ იქნება გამოყენებული ისეთი თემების შემთხვევაში, როგორებიცაა ვაქცინაცია, პოლიტიკა თუ კულტურული განსხვავებები.