Facebook apologizes for naming AI after Primate.

0
1765
Facebook apologizes for naming AI after Primate.
Facebook apologizes for naming AI after Primate.

فیس بک نے اے آئی کو پرائمیٹ نام دینے کے بعد معافی مانگی ہے

Facebook has apologized for allegedly calling its artificial intelligence a primate, a video featuring black men. Facebook said the AI ​​error was unacceptable and disabled the system.

The social media site launched an investigation into the matter and apologized: “We apologize to anyone who saw these aggressive recommendations.”

This is not the first time racial bias and discrimination has been found in the A.I ​​system. In 2015, the Google Photos app labeled pictures of black people as “partisans”, forcing them to formally apologize and explain how “scared and genuinely sorry” they were. I, however, noted in Wired in 2018 how easy it was to remove captions from the image and censor the word “partisan” in relation to the image. A Google spokesman said the “gorilla” was censored during the search and that words such as “chimpanzee”, and “monkey” were blocked after the infamous incident.

The FTC says Facebook has acquired and buried its competitors in the fight against the new trust.

In May of this year, Twitter acknowledged racial bias in revising its cropped image, using Sally’s algorithm. The image-cutting tool favors identifying white men over black men, forcing the company to immediately apologize and promise to correct the mistake with its customers.

Last year, in 2020, Facebook introduced its new “Inclusive Product Council” and equal team to its old app, Instagram, which will test algorithms that show racial bias. The company argued that “as soon as we realized this was happening, we disconnected the recommendation of the entire feature of the entity so that we could investigate the cause and avoid it.” They say they have improved the AI ​​algorithm, which is not perfect, but they will continue to improve.

فیس بک نے اپنی مصنوعی ذہانت کو مبینہ طور پر پرائمیٹ کہنے پر معذرت کی ہے ، ایک ویڈیو جس میں سیاہ فام مرد شامل ہیں۔ فیس بک نے کہا کہ اے آئی کی غلطی ناقابل قبول ہے اور سسٹم کو غیر فعال کر دیا ہے۔

سوشل میڈیا سائٹ نے معاملے کی تحقیقات شروع کی اور معذرت کی: “ہم ان تمام لوگوں سے معذرت خواہ ہیں جنہوں نے یہ جارحانہ سفارشات دیکھیں۔”

یہ پہلی بار نہیں ہے کہ اے آئی سسٹم میں نسلی تعصب اور امتیازی سلوک پایا گیا ہو۔ 2015 میں ، گوگل فوٹو ایپ نے سیاہ فام لوگوں کی تصویروں کو “متعصب” قرار دیا ، جس سے وہ باضابطہ معافی مانگنے پر مجبور ہوئے اور وضاحت کی کہ وہ کتنے خوفزدہ اور حقیقی معنوں میں معذرت خواہ ہیں۔ تاہم ، میں نے 2018 میں وائرڈ میں نوٹ کیا کہ تصویر سے کیپشن کو ہٹانا اور تصویر کے حوالے سے لفظ “جانبداری” کو سنسر کرنا کتنا آسان تھا۔ گوگل کے ترجمان نے کہا کہ سرچ کے دوران “گورللا” کو سنسر کیا گیا تھا اور بدنام زمانہ واقعہ کے بعد “چمپینزی” ، “چمپینزی” اور “بندر” جیسے الفاظ کو بلاک کردیا گیا تھا۔

ایف ٹی سی کا کہنا ہے کہ فیس بک نے نئے ٹرسٹ کے خلاف جنگ میں اپنے حریفوں کو حاصل کر لیا ہے اور دفن کر دیا ہے۔

اس سال کے مئی میں ، ٹویٹر نے سیلی کے الگورتھم کا استعمال کرتے ہوئے اپنی کٹی ہوئی تصویر پر نظر ثانی میں نسلی تعصب کو تسلیم کیا۔ امیج کاٹنے کا آلہ سیاہ فام مردوں پر سفید فام مردوں کی شناخت کے حق میں ہے ، کمپنی کو فوری طور پر معافی مانگنے پر مجبور کیا اور اپنے صارفین کے ساتھ غلطی کو درست کرنے کا وعدہ کیا۔

پچھلے سال ، 2020 میں ، فیس بک نے اپنی نئی “انکلیوسیٹ پروڈکٹ کونسل” اور اپنے پرانے ایپ ، انسٹاگرام کے برابر ٹیم متعارف کرائی ، جو الگورتھم کی جانچ کرے گی جو نسلی تعصب کو ظاہر کرتی ہے۔ کمپنی نے استدلال کیا کہ “جیسے ہی ہمیں احساس ہوا کہ یہ ہو رہا ہے ، ہم نے ادارے کی پوری خصوصیت کی سفارش منقطع کر دی تاکہ ہم وجہ کی تحقیقات کر سکیں اور اس سے بچ سکیں۔” ان کا کہنا ہے کہ انہوں نے اے آئی الگورتھم کو بہتر بنایا ہے ، جو کہ کامل نہیں ہے ، لیکن وہ بہتر ہوتے رہیں گے۔