برنامج Chatbot الجديد من Google ، Bard: مزاعم استغلال البيانات
جوجل تطلق برنامج تشاتبوت الجديد Bard لمواجهة تحدّي OpenAI
أصبحت شركات التكنولوجيا أكثر حذرًا ردًا على ChatGPT من OpenAI ، حيث تبنته بعض الشركات ، مثل Microsoft ، على الفور بينما كانت شركات أخرى ، مثل Google ، بطيئة في الاستجابة. في محاولة للتنافس مع الذكاء الاصطناعي التوليدي المعروف لشركة OpenAI ، أطلقت الشركة مؤخرًا روبوت الدردشة الخاص بها المسمى Bard. ومع ذلك ، ظهرت ادعاءات بأن باحثيها استخدموا بيانات من تقنية OpenAI دون إذن لتطوير Bard.
كيف تم تطوير Bard؟ تفاصيل جديدة تكشفها التحقيقات
Bard هو ذكاء اصطناعي توليدي يعتمد على نماذج التعلم الآلي وبيانات التدريب ، على غرار أنظمة الذكاء الاصطناعي التوليدية الأخرى. أنشأت Google قواعد chatbot باستخدام نموذج اللغة لتطبيقات الحوار (LaMDA). على الرغم من توفر مكتبات مفتوحة المصدر لبيانات التدريب ، يبدو أن Google طلبت بيانات إضافية لتطوير Bard.
جوجل تؤكد عدم استخدام بيانات ChatGPT في تطوير Bard
وفقًا للمصادر ، استخدمت Google بيانات من استجابات ChatGPT المقدمة من خلال ShareGPT ، وهو موقع ويب حيث يمكن للأشخاص نشر ردود ChatGPT chatbot. ومع ذلك ، تم إبلاغ كبار المديرين ، بما في ذلك الرئيس التنفيذي Sundar Pichai ، أن الوصول إلى بيانات ChatGPT ينتهك شروط خدمة OpenAI. نتيجة لذلك ، ترك جاكوب ديفلين ، الباحث في الذكاء الاصطناعي في Google ، الشركة. كان Devlin ، الذي يعمل الآن في OpenAI ، قلقًا أيضًا من أن Bard قد ينتج نتائج مماثلة إذا عرضت Google بيانات ChatGPT.
تنص المقالة كذلك على أن Google أصدرت تعليمات لقسم DeepMind التابع لها للعمل مع فريق Brain في مشروع جديد يسمى Gemini.
تدعي Google أن Bard لم يتم تدريبه على بيانات ChatGPT. وفقًا للشركة ، "لم يتم تدريب Bard على البيانات من ShareGPT أو ChatGPT". ومع ذلك ، اتصلت شرطة Android بشركة Google للحصول على بيان لكنها لم تتلق ردًا.
اتهامات بانتهاج جوجل لطرق غير أخلاقية في تطوير Bard
واجهت Google معضلات أخلاقية أثناء محاولتها تطوير Bard في إطار زمني قصير. قبل إطلاق ChatGPT ، ورد أن بيتشاي طلب من موظفي Google قضاء ما يصل إلى أربع ساعات من يومهم لحل بعض المشكلات. أبلغ موقع Business Insider عن هذه المعلومات أولاً.
Jacob Devlin: باحث جوجل السابق الذي انضم إلى فريق OpenAI
لا يزال من غير الواضح ما إذا كانت Bard قد تم تدريبها على بيانات ChatGPT قبل إصدارها أو ما إذا كانت لا تزال تستخدم مثل هذا التدريب. ومع ذلك ، تدعي Google أنه لا تنطبق أي من الحالتين.
يبدو أن تطوير تقنية الذكاء الاصطناعي الجديدة Bard من قبل جوجل لم يكن سهلاً، وانعكس ذلك في الصعوبات التي واجهتها الشركة في محاولة تطوير هذا النوع من البرمجيات المتقدمة.
بالإضافة إلى ذلك، فإن اتهامات جوجل بمحاولة استغلال بيانات OpenAI من أجل تطوير Bard دون إذن لها، تمثل اختلافًا مهمًا في الرؤى الأخلاقية المتعلقة بتطوير التقنية الحديثة.
على الرغم من ذلك، فإن جوجل تقدمت بتأكيد رسمي على عدم استخدام بيانات ChatGPT في تطوير Bard، وبالتالي فإن الصحة الدقيقة للاتهامات التي وجهت لها لا تزال غير واضحة.
مع ذلك، فإن هذه الحادثة تسلط الضوء على الحاجة إلى إطار أخلاقي أكثر شمولية وأكثر وضوحًا لتطوير تقنيات الذكاء الاصطناعي والتعامل مع البيانات الشخصية.
ومع تطور التقنيات الحديثة، يبدو أن الشركات الكبرى في عالم التكنولوجيا مستعدة أكثر من أي وقت مضى للتعامل مع التحديات الأخلاقية المرتبطة بالتقنيات الجديدة.
يجب عليهم أن يعتمدوا إطارًا أخلاقيًا صارمًا لتطوير التقنيات الجديدة، بما في ذلك تحديد البيانات المستخدمة والحفاظ على سرية البيانات الشخصية وحماية الخصوصية. إذا نجحت الشركات في تحقيق هذا الهدف، فسوف يتمكنون من الاستفادة من فوائد التقنيات الحديثة بشكل أكبر وأكثر فعالية، وذلك بدون تعريض المستخدمين لأي خطر.