Azure AI Speech أداة Microsoft الذكية لنسخ الوجوه والأصوات بشكل واقعي
أعلنت شركة مايكروسوفت عن أحدث مساهماتها في سباق الذكاء الاصطناعي في مؤتمر المطورين الخاص بها هذا الأسبوع وهوبرنامج يمكنه إنشاء صور رمزية وأصوات جديدة أو تكرار المظهر الحالي وكلام المستخدم مما يثير مخاوف من أنه قد يؤدي إلى زيادة إنشاء صور مزيفة عميقة من صنع الذكاء الاصطناعي و فيديوهات لأحداث لم تحدث.
تم الإعلان عن Azure AI Speech الذي تم الإعلان عنه في Microsoft Ignite 2023 باستخدام الصور البشرية ويسمح للمستخدمين بإدخال نص يمكن بعد ذلك “قراءته” بصوت عالٍ من خلال صورة رمزية واقعية تم إنشاؤها باستخدام الذكاء الاصطناعي. كما يمكن للمستخدمين إما اختيار صورة رمزية لـ Microsoft تم تحميلها مسبقًا أو تحميل لقطات لشخص يريدون تكرار صوته وشكله. وقالت مايكروسوفت في منشور على مدونتها إن الأداة يمكن استخدامها لبناء وكلاء محادثة ومساعدين افتراضيين وروبوتات دردشة والمزيد.”
حيث يقول المنشور: “يمكن للعملاء اختيار إما صوتًا عصبيًا تم إنشاؤه مسبقًا أو مخصصًا للصورة الرمزية الخاصة بهم. إذا تم استخدام صوت الشخص نفسه وشكله لكل من الصوت العصبي المخصص والصورة الرمزية المخصصة لتحويل النص إلى كلام فإن الصورة الرمزية ستشبه هذا الشخص إلى حد كبير.
وقالت الشركة إن برنامج تحويل النص إلى كلام الجديد سيتم إصداره مع مجموعة متنوعة من القيود والضمانات لمنع سوء الاستخدام. وقالت الشركة: “كجزء من التزام مايكروسوفت بالذكاء الاصطناعي المسؤول تم تصميم الصورة الرمزية لتحويل النص إلى كلام بهدف حماية حقوق الأفراد والمجتمع وتعزيز التفاعل الشفاف بين الإنسان والحاسوب ومكافحة انتشار التزييف العميق الضار والمحتوى المضلل.”
وجاء في منشور المدونة: “يمكن للعملاء تحميل تسجيل الفيديو الخاص بهم لموهبة الصورة الرمزية والتي تستخدمها الميزة لتدريب مقطع فيديو اصطناعي للصورة الرمزية المخصصة التي تتحدث.”
وسرعان ما أثار هذا الإعلان انتقادات مفادها أن مايكروسوفت أطلقت “منشئ التزييف العميق” والذي من شأنه أن يسمح بسهولة أكبر باستنساخ صورة الشخص وجعله يقول ويفعل أشياء لم يقلها أو يفعلها هذا الشخص. قال رئيس شركة مايكروسوفت في شهر أيار إن تقنية التزييف العميق هي مصدر قلقه الأكبر عندما يتعلق الأمر بظهور الذكاء الاصطناعي.
وفي بيان ردت الشركة على الانتقادات قائلة إن الصور الرمزية المخصصة أصبحت الآن أداة وصول محدود يتعين على العملاء التقدم للحصول عليها والموافقة عليها من قبل Microsoft. وسيُطلب من المستخدمين أيضًا الكشف عن وقت استخدام الذكاء الاصطناعي لإنشاء صوت اصطناعي أو صورة رمزية.
وقالت سارة بيرد من قسم هندسة الذكاء الاصطناعي المسؤول في مايكروسوفت في بيان: “مع وجود هذه الضمانات نساعد في الحد من المخاطر المحتملة وتمكين العملاء من غرس قدرات الصوت والكلام المتقدمة في تطبيقات الذكاء الاصطناعي الخاصة بهم بطريقة شفافة وآمنة.”
يعد صانع الصور الرمزية لتحويل النص إلى كلام أحدث أداة حيث تسابقت شركات التكنولوجيا الكبرى للاستفادة من طفرة الذكاء الاصطناعي في السنوات الأخيرة وبعد الشعبية الهائلة لبرنامج ChatGPT الذي أطلقته شركة OpenAI المدعومة من مايكروسوفت قامت شركات مثل Meta وGoogle بدفع أدوات الذكاء الاصطناعي الخاصة بها إلى السوق.
ومع صعود الذكاء الاصطناعي تزايدت المخاوف بشأن قدرات التكنولوجيا حيث حذر سام ألتمان الرئيس التنفيذي لشركة OpenAI الكونجرس من إمكانية استخدامه للتدخل في الانتخابات ويجب تنفيذ الضمانات.
ويقول الخبراء إن تقنية التزييف العميق تشكل خطرًا خاصًا عندما يتعلق الأمر بالتدخل في الانتخابات. فقد أطلقت مايكروسوفت أداة في وقت سابق من هذا الشهر للسماح للسياسيين والحملات بالمصادقة على مقاطع الفيديو الخاصة بهم ووضع علامة مائية عليها للتحقق من شرعيتها ومنع انتشار التزييف العميق.
كما أعلنت Meta عن سياسة هذا الأسبوع تتطلب الكشف عن استخدام الذكاء الاصطناعي في الإعلانات السياسية وحظر الحملات من استخدام أدوات الذكاء الاصطناعي التوليدية الخاصة بـ Meta للإعلانات.
المصدر الغارديان