خطوة جديدة نحو تنظيم استخدام الذكاء الاصطناعي في الإعلانات السياسية
قد تكون لجنة الاتصالات الفيدرالية (FCC) بصدد تعزيز آليات إنفاذ الذكاء الاصطناعي في البلاد، حيث تستكشف المنظمة قواعد جديدة للكشف عن استخدام الذكاء الاصطناعي في الإعلانات السياسية.
التحقيقات الأولية
وفقًا لإشعار مقترح للقواعد الجديدة الذي صدر هذا الأسبوع، بدأت اللجنة تحقيقات أولية في متطلبات على مستوى البلاد لوضع علامات على الذكاء الاصطناعي المستخدم في الإعلانات السياسية على التلفزيون والراديو. ستستكشف لجنة الاتصالات الفيدرالية تفويضات للكشف المباشر، وعلى الهواء، وفي الكتابة عن استخدام الذكاء الاصطناعي، وستعمل على تعريف نطاق “المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي”.
نطاق القواعد المقترحة
يمكن أن تنطبق القواعد المقترحة على مشغلي الكابلات، ومقدمي خدمات التلفزيون الفضائي، ومقدمي خدمات الراديو، لكنها لن تؤثر على خدمات البث عبر الإنترنت.
دوافع القواعد الجديدة
تكتب لجنة الاتصالات الفيدرالية: “من المتوقع أن يلعب استخدام الذكاء الاصطناعي دورًا كبيرًا في إنشاء الإعلانات السياسية في عام 2024 وما بعده، ولكن استخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في الإعلانات السياسية يخلق أيضًا احتمالًا لتقديم معلومات خادعة للناخبين، لا سيما استخدام ‘التزييف العميق’ – وهي الصور أو الفيديوهات أو التسجيلات الصوتية التي تم تغييرها لتظهر أشخاصًا يقومون بأشياء أو يقولون أشياء لم يقوموا بها أو يقولونها فعليًا، أو أحداث لم تحدث فعليًا.” ستستند هذه القواعد إلى الصلاحيات الممنوحة للجنة الاتصالات الفيدرالية عبر قانون إصلاح الحملات الثنائية الحزبية.
الدعوة إلى تنظيم أكبر
دعت رئيسة لجنة الاتصالات الفيدرالية، جيسيكا روزنوورسل، زملاءها المنظمين إلى استكشاف سلامة الذكاء الاصطناعي في البيان الصحفي الخاص بالاقتراح، حيث كتبت: “مع تزايد إتاحة أدوات الذكاء الاصطناعي، ترغب اللجنة في التأكد من أن المستهلكين مطلعون تمامًا عند استخدام التكنولوجيا. اليوم، شاركت زملائي اقتراحًا يوضح أن المستهلكين لهم الحق في معرفة متى تُستخدم أدوات الذكاء الاصطناعي في الإعلانات السياسية التي يرونها، وآمل أن يتصرفوا بسرعة بشأن هذه المسألة.”
من الجدير بالذكر أن اقتراح لجنة الاتصالات الفيدرالية لا يستكشف حظرًا صريحًا على المحتوى الذي تم تغييره بواسطة الذكاء الاصطناعي في الإعلانات السياسية، رغم القلق المتزايد، وعملية وضع القواعد المقترحة لن تنتج مجموعة نهائية من المتطلبات لعدة أشهر على الأقل. حتى ذلك الحين، يقع عبء وضع علامات على الذكاء الاصطناعي على عاتق الشركات الفردية ومطوري الذكاء الاصطناعي أنفسهم.