قال كبير المسؤولين التنفيذيين للسياسة يوم الثلاثاء إن Meta Platforms يمكن أن تعاقب المستخدمين الذين يفشلون في تصنيف المحتوى الصوتي والمرئي الناتج عن الذكاء الاصطناعي المنشور على منصاتها.
وأدلى بهذه التصريحات نيك كليج رئيس الشؤون العالمية بشركة ميتا خلال مقابلة مع رويترز.
وقال كليج إنه يشعر بالثقة في أن شركات التكنولوجيا يمكنها تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي بشكل موثوق في هذه المرحلة، لكنه قال إن أدوات تحديد محتوى الصوت والفيديو كانت أكثر تعقيدًا ولا تزال قيد التطوير.
وأضاف كليج: " أنه على الرغم من أن التكنولوجيا لم تنضج بعد بشكل كامل، خاصة عندما يتعلق الأمر بالصوت والفيديو، إلا أن الأمل هو أن نتمكن من خلق شعور بالزخم والحافز لبقية الصناعة لتحذو حذوها".
وأكد كليج أنه في غضون ذلك، ستبدأ ميتا في مطالبة الأشخاص بتسمية محتوى الصوت والفيديو المعدل الخاص بهم، ويمكن أن تطبق عقوبات إذا فشلوا في القيام بذلك، ولم يصف العقوبات.
ميتا تقوم بتسمية الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على منصاتها
جاءت هذه التعليقات بعد إعلان كليج في منشور على مدونته أن ميتا ستبدأ في اكتشاف ووضع علامات على الصور التي تم إنشاؤها بواسطة خدمات الذكاء الاصطناعي التابعة لشركات أخرى في الأشهر المقبلة، باستخدام مجموعة من العلامات غير المرئية المضمنة في الملفات.
وستقوم ميتا بتطبيق التصنيفات على أي محتوى يحمل العلامات المنشورة على خدمات فيسبوك و انستجرام و ثريدز ، في محاولة لإشارة المستخدمين إلى أن الصور - التي تشبه في كثير من الحالات الصور الحقيقية - هي في الواقع إبداعات رقمية.
وقال ريتيش كوتاك، محلل الأمن السيبراني والتكنولوجيا في تورونتو: "سيكون هذا عملاً قيد التقدم وسيكون دائمًا لعبة قط وفأر بشكل أساسي، لكنها البداية".
وحذر من أنه مثلما تتحسن تقنية ميتا الخاصة لاكتشاف الصور المولدة بواسطة الذكاء الاصطناعي وتصنيفها، فإن قدرة أداة الذكاء الاصطناعي على خداع تكنولوجيا الكشف ستتحسن أيضًا.
أما بالنسبة لنوع العقوبات التي قد يتعرض لها المستخدمون، فقال كوتاك إن ذلك قد يستلزم تعليقهم أو إزالتهم من المنصة. وأضاف أن ذلك قد يؤدي إلى تداعيات أوسع نطاقا.
وقال: "إذا لم تتمكن من الوصول إلى حسابك، وإذا لم تكن قادرًا على الاستفادة من النظام الأساسي في حد ذاته، فقد يكون لذلك تداعيات إضافية مثل الخسارة الاقتصادية إذا كنت تستخدم حسابك لربح الأموال".
تقوم الشركة بالفعل بتصنيف أي محتوى تم إنشاؤه باستخدام أدوات الذكاء الاصطناعي الخاصة بها. وقال كليج إنه بمجرد تشغيل النظام الجديد، ستفعل ميتا الشيء نفسه بالنسبة للصور التي تم إنشاؤها على الخدمات التي تديرها OpenAI وMicrosoft وAdobe وMidjourney وShutterstock وAlphabet’s Google.
وأضاف خلال المقابلة أنه لا توجد حاليًا آلية قابلة للتطبيق لتسمية النص المكتوب الناتج عن أدوات الذكاء الاصطناعي مثل ChatGPT، قائلاً: "لقد أبحرت تلك السفينة".
ورفض متحدث باسم ميتا إخبار رويترز ما إذا كانت الشركة ستطبق التصنيفات على محتوى الذكاء الاصطناعي الذي يتم مشاركته على خدمة الرسائل المشفرة WhatsApp.
يقدم هذا الإعلان لمحة مبكرة عن نظام ناشئ من المعايير التي تعمل شركات التكنولوجيا على تطويرها للتخفيف من الأضرار المحتملة المرتبطة بتقنيات الذكاء الاصطناعي التوليدية، والتي يمكن أن تبث محتوى مزيفًا ولكن يبدو واقعيًا استجابةً لمطالبات بسيطة.
يعتمد هذا النهج على نموذج تم إنشاؤه على مدار العقد الماضي من قبل بعض الشركات نفسها لتنسيق إزالة المحتوى المحظور عبر المنصات، بما في ذلك تصوير العنف الجماعي واستغلال الأطفال.
انتقد مجلس الرقابة المستقل في ميتا يوم الاثنين سياسة الشركة بشأن مقاطع الفيديو التي تم التلاعب بها بشكل مضلل، قائلًا إنها ضيقة جدًا وأنه يجب تصنيف المحتوى بدلاً من إزالته. قال كليج إنه يتفق بشكل عام مع تلك الانتقادات.
وقال إن مجلس الإدارة كان على حق في أن سياسة ميتا الحالية "ببساطة غير مناسبة للغرض في بيئة سيكون لديك فيها محتوى اصطناعي ومحتوى مختلط أكثر من ذي قبل."
واستشهد بشراكة التصنيف الجديدة كدليل على أن ميتا كانت تتحرك بالفعل في الاتجاه الذي اقترحه مجلس الإدارة