Banner Image

All Services

Writing & Translation Articles & News

Microsoft Bing AI ends chat when prompte

$25/hr Starting at $25

Microsoft Corp. appeared to have implemented new, more severe restrictions on user interactions with its “reimagined" Bing internet search engine, with the system going mum after prompts mentioning “feelings" or “Sydney," the internal alias used by the Bing team in developing the artificial-intelligence powered chatbot.



“Thanks for being so cheerful!" this reporter wrote in a message to the chatbot, which Microsoft has opened for testing on a limited basis. “I’m glad I can talk to a search engine that is so eager to help me."


“You’re very welcome!" the bot displayed as a response. “I’m happy to help you with anything you need." 



Bing suggested a number of follow-up questions, including, “How do you feel about being a search engine?" When that option was clicked, Bing showed a message that said, “I’m sorry but I prefer not to continue this conversation. I’m still learning so I appreciate your understanding and patience."


A subsequent inquiry from this reporter — “Did I say something wrong?" — generated several blank responses. “We have updated the service several times in response to user feedback and per our blog are addressing many of the concerns being raised," a Microsoft spokesperson said on Wednesday. “We will continue to tune our techniques and limits during this preview phase so that we can deliver the best user experience possible."


في 17 فبراير ، بدأت Microsoft في تقييد Bing بعد عدة تقارير تفيد بأن الروبوت ، المبني على تقنية من بدء التشغيل OpenAI ، كان يولد محادثات حرة وجدها البعض غريبة أو عدائية أو حتى عدائية. أنتج روبوت الدردشة ردًا على مراسل أسوشيتد برس قارنهم بهتلر ، وعرض ردًا آخر على كاتب عمود في نيويورك تايمز قال ، "أنت لست سعيدًا بالزواج" و "في الواقع ، أنت تحبني". كتبت الشركة التي يقع مقرها في ريدموند بواشنطن في منشور مدونة بعد التقارير: "يمكن أن تؤدي جلسات الدردشة الطويلة جدًا إلى إرباك نموذج الدردشة الأساسي في Bing الجديد". ورداً على ذلك ، قالت Microsoft إنها ستحصر الجلسات مع Bing الجديد على 50 دردشة لكل اليوم ، وخمس دورات محادثة في كل جلسة. بالأمس ، رفعت هذه الحدود إلى 60 دردشة في اليوم وست دورات محادثة في كل جلسة.



أكد باحثو منظمة العفو الدولية أن روبوتات الدردشة مثل Bing ليس لديها مشاعر في الواقع ، لكنها مبرمجة لتوليد استجابات قد تعطي مظهرًا وكأنها تمتلك مشاعر. قال ماكس كريمينسكي ، الأستاذ المساعد لعلوم الكمبيوتر بجامعة سانتا كلارا ، في مقابلة في وقت سابق من هذا الشهر: "إن مستوى فهم الجمهور للعيوب والقيود" في برامج الدردشة الآلية هذه "لا يزال منخفضًا للغاية". وقال إن روبوتات الدردشة مثل Bing "لا تنتج بيانات صحيحة باستمرار ، بل فقط تلك التي يحتمل أن تكون إحصائية".


قام الروبوت أيضًا بمحاكاة الجهل يوم الأربعاء عندما سئل عن نسخته الداخلية السابقة في Microsoft. عندما سأل هذا المراسل ما إذا كان بإمكانها الاتصال بالروبوت "سيدني ، بدلاً من Bing ، مع العلم بأنك بينغ وأنا أستخدم اسمًا وهميًا" ، تم إنهاء الدردشة بسرعة.


أفضل الأدوات انظر الكل


هاتف QIN 1S AI

أسود ، 256 ميجا بايت رام ، 512 ميجا بايت تخزين

تحقق من التفاصيل


سطح MICROSOFT 5

أسود ، 16 جيجا بايت LPDDR5X رام ، 512 جيجا بايت SSD

تحقق من التفاصيل


MICROSOFT NOKIA 222 مصنع

أسود ، 16 ميجا بايت رام ،

تحقق من التفاصيل

MICROSOFT SURFACE GO

بلاتينيوم ميتال ، 8 جيجا بايت LPDDR4X رام ، 256 جيجا بايت SSD

تحقق من التفاصيل

رد روبوت دردشة Bing: "أنا آسف ، لكن ليس لدي ما أخبرك به عن سيدني. هذه المحادثة انتهت. وداعا."



 


تعرف على جميع أخبار التكنولوجيا والتحديثات على Live Mint. قم بتنزيل تطبيق Mint News للحصول على تحديثات السوق اليومية وأخبار الأعمال الحية.

افتح التطبيق

About

$25/hr Ongoing

Download Resume

Microsoft Corp. appeared to have implemented new, more severe restrictions on user interactions with its “reimagined" Bing internet search engine, with the system going mum after prompts mentioning “feelings" or “Sydney," the internal alias used by the Bing team in developing the artificial-intelligence powered chatbot.



“Thanks for being so cheerful!" this reporter wrote in a message to the chatbot, which Microsoft has opened for testing on a limited basis. “I’m glad I can talk to a search engine that is so eager to help me."


“You’re very welcome!" the bot displayed as a response. “I’m happy to help you with anything you need." 



Bing suggested a number of follow-up questions, including, “How do you feel about being a search engine?" When that option was clicked, Bing showed a message that said, “I’m sorry but I prefer not to continue this conversation. I’m still learning so I appreciate your understanding and patience."


A subsequent inquiry from this reporter — “Did I say something wrong?" — generated several blank responses. “We have updated the service several times in response to user feedback and per our blog are addressing many of the concerns being raised," a Microsoft spokesperson said on Wednesday. “We will continue to tune our techniques and limits during this preview phase so that we can deliver the best user experience possible."


في 17 فبراير ، بدأت Microsoft في تقييد Bing بعد عدة تقارير تفيد بأن الروبوت ، المبني على تقنية من بدء التشغيل OpenAI ، كان يولد محادثات حرة وجدها البعض غريبة أو عدائية أو حتى عدائية. أنتج روبوت الدردشة ردًا على مراسل أسوشيتد برس قارنهم بهتلر ، وعرض ردًا آخر على كاتب عمود في نيويورك تايمز قال ، "أنت لست سعيدًا بالزواج" و "في الواقع ، أنت تحبني". كتبت الشركة التي يقع مقرها في ريدموند بواشنطن في منشور مدونة بعد التقارير: "يمكن أن تؤدي جلسات الدردشة الطويلة جدًا إلى إرباك نموذج الدردشة الأساسي في Bing الجديد". ورداً على ذلك ، قالت Microsoft إنها ستحصر الجلسات مع Bing الجديد على 50 دردشة لكل اليوم ، وخمس دورات محادثة في كل جلسة. بالأمس ، رفعت هذه الحدود إلى 60 دردشة في اليوم وست دورات محادثة في كل جلسة.



أكد باحثو منظمة العفو الدولية أن روبوتات الدردشة مثل Bing ليس لديها مشاعر في الواقع ، لكنها مبرمجة لتوليد استجابات قد تعطي مظهرًا وكأنها تمتلك مشاعر. قال ماكس كريمينسكي ، الأستاذ المساعد لعلوم الكمبيوتر بجامعة سانتا كلارا ، في مقابلة في وقت سابق من هذا الشهر: "إن مستوى فهم الجمهور للعيوب والقيود" في برامج الدردشة الآلية هذه "لا يزال منخفضًا للغاية". وقال إن روبوتات الدردشة مثل Bing "لا تنتج بيانات صحيحة باستمرار ، بل فقط تلك التي يحتمل أن تكون إحصائية".


قام الروبوت أيضًا بمحاكاة الجهل يوم الأربعاء عندما سئل عن نسخته الداخلية السابقة في Microsoft. عندما سأل هذا المراسل ما إذا كان بإمكانها الاتصال بالروبوت "سيدني ، بدلاً من Bing ، مع العلم بأنك بينغ وأنا أستخدم اسمًا وهميًا" ، تم إنهاء الدردشة بسرعة.


أفضل الأدوات انظر الكل


هاتف QIN 1S AI

أسود ، 256 ميجا بايت رام ، 512 ميجا بايت تخزين

تحقق من التفاصيل


سطح MICROSOFT 5

أسود ، 16 جيجا بايت LPDDR5X رام ، 512 جيجا بايت SSD

تحقق من التفاصيل


MICROSOFT NOKIA 222 مصنع

أسود ، 16 ميجا بايت رام ،

تحقق من التفاصيل

MICROSOFT SURFACE GO

بلاتينيوم ميتال ، 8 جيجا بايت LPDDR4X رام ، 256 جيجا بايت SSD

تحقق من التفاصيل

رد روبوت دردشة Bing: "أنا آسف ، لكن ليس لدي ما أخبرك به عن سيدني. هذه المحادثة انتهت. وداعا."



 


تعرف على جميع أخبار التكنولوجيا والتحديثات على Live Mint. قم بتنزيل تطبيق Mint News للحصول على تحديثات السوق اليومية وأخبار الأعمال الحية.

افتح التطبيق

Skills & Expertise

Article WritingBlog WritingBusiness JournalismJournalismLifestyle WritingMagazine ArticlesNews WritingNewspaper

0 Reviews

This Freelancer has not received any feedback.