"مبرة" تعلن صياغة ثمانية مبادئ توجيهية لاستخدام الذكاء الاصطناعي في مجال العلاقات العامة والاتصال الإعلامي
05 يونيو 2024
221
كشفت جمعية الشرق الأوسط للعلاقات العامة (مبرة)، الهيئة الرائدة في مجال العلاقات العامة والاتصال في الشرق الأوسط، عن أول وثيقة إرشادية تتضمن مجموعة من المبادئ التوجيهية لاستخدام الذكاء الاصطناعي (AI) في مجال العلاقات العامة والاتصال الإعلامي.
وعبر تعاون مشترك بين قسم الذكاء الاصطناعي في "مبرة"، ومنصة "تشات جي بي تي"، وضعت جمعية "مبرة" 8 مبادئ إرشادية كإطار توجيهي لاستخدام الذكاء الاصطناعي بشكلٍ فعّال وأخلاقي لأعضائها وغيرهم من العاملين في هذا المجال.
وتُشكل هذه المبادئ، المُستندة إلى المعايير الإقليمية والعالمية، إطارًا مرجعيًا يُساعد على دمج الذكاء الاصطناعي بشكلٍ مسؤول في عمليات إنتاج المحتوى اليومي، جنبًا إلى جنب مع الإرشادات والسياسات والمراجع الأخرى المعمول بها في هذا الشأن.
وأكدت مارغريت فلاناغان، المؤسس المشارك لـ Tales & Heads ورئيس لجنة الذكاء الاصطناعي في "مبرة"، أهمية إطار العمل الجديد، قائلة:
"نتطلع من خلال صياغة هذا الإطار إلى تعزيز استخدام الذكاء الاصطناعي بشكلٍ مسؤول في مجال العلاقات العامة، وحماية مخرجات هذا المجال الهام في المنطقة، وإرساء أسس منهجية موحّدة لاستخدام أدوات الذكاء الاصطناعي في مختلف المؤسسات، مع نشر الوعي بالتداعيات الأخلاقية والقانونية لمثل هذه التقنيات".
وأضافت "نؤمن أن مسؤولياتنا تتجاوز حدود المؤسسات التي نعمل معها، لتشمل المعنيين من خبراء وسائل الإعلام والجمهور الأوسع، خاصة أن التطور المستمر للذكاء الاصطناعي والتغيّر السريع في اللوائح المنظمة لاستخدامه يدفعنا لمواصلة تطوير التوجيهات العملية والتحديثات اللازمة لضمان استخدام هذه التقنيات بشكلٍ مسؤول وفعّال."
يذكر أن لجنة الذكاء الاصطناعي في "مبرة" تضم نخبة من المتخصصين مثل إبراهيم المطوع، المؤسس المشارك والعضو المنتدب لشركة جومار للعلاقات العامة؛ وتالا أبو طه، مديرة العلاقات العامة في شركة فيولا للاتصال؛ وأندريا جيسدال، مستشارة الاتصال المستقلة؛ وناتاشا هاثيرال شو، المؤسِّس والرئيس التنفيذي لشركة TishTash؛ وهنري جاكينز نائب الرئيس الأول، ورئيس قسم تسويق الأعمال في بنك أبوظبي الأول؛ والبروفيسور داليا محمود، في جامعة أوروبا للعلوم التطبيقية؛ وجوزيف نالور، رئيس قسم ضبط الاتصال بكلية الاتصال، جامعة مردوخ دبي؛ وكيرستي أوكونور، المدير الإقليمي للابتكار في شركة هيل آند نولتون؛ وندى شيلتون، نائب الرئيس الأول للاتصال في مجموعة مبادلة؛ وإنكا ستيفر، البروفيسور في الممارسة والتطبيق في جامعة زايد، كلية علوم الاتصال والإعلام؛ ودنيز يمّين، مديرة العمليات في شركة غراي قطر للدعاية والاعلان.
وتشتمل المبادئ التوجيهية الصادرة ما يلي:
1. التحلي بالنزاهة والشفافية: الإشارة إلى استخدام الذكاء الاصطناعي في كل مرة يتم فيها استخدامه في مجال العلاقات العامة والاتصالات الإعلامية لضمان الثقة.
يتضمن ذلك إجراء حوار مسبق مع العملاء أو مع المدراء المباشرين لإبلاغهم بالاعتماد على منصات الذكاء الاصطناعي، وعن كيفية استخدامها. ولا يعني ذلك ضرورة الرجوع إليهم في كل مرة، حيث يمكن الاتفاق على معايير محددة لاستخدام الذكاء الاصطناعي. وعندما يتم سؤالك بشكل مباشر ما إذا استخدمت الذكاء الاصطناعي في مشروع معين، عليك التحلي بالنزاهة والشفافية. أما إذا طُلب منك عدم استخدام الذكاء الاصطناعي في مشروع معين، فعليك الالتزام بهذه التعليمات. ننصح بالاطلاع على توصيات أفضل الممارسات، مثل توصيات جامعة كامبريدج حول الاستخدام الأمثل لأدوات الذكاء الاصطناعي النصية والصوتية والمرئية. ومن الضروري الاطلاع على المواد القانونية الخاصة بهذا الموضوع باستمرار لمواكبة التغير الدائم لمشاريع القوانين المقترحة في تحديد الملكية الفكرية والاستخدام العادل للمحتوى الإبداعي.
2. التحلي بالمسؤولية والمصداقية: من الضروري أن يتحلى قطاع العلاقات العامة والاتصالات الإعلامية بالصدق بشأن استخدام الذكاء الاصطناعي في المحتوى الذي يتم إرساله إلى وسائل الإعلام.
لا تقتصر الشفافية في استخدام الذكاء الاصطناعي على العملاء والزملاء في العمل، بل تشمل المحتوى الذي يتم مشاركته مع وسائل الإعلام. يجب دائماً وضع علامة واضحة على الصور ومقاطع الفيديو والمقاطع الصوتية التي سيتم إرسالها إلى وسائل الإعلام عند إنشائها باستخدام الذكاء الاصطناعي. ومن الأفضل أن يُكتب كامل المحتوى النصي الخاص بوسائل الإعلام بواسطة الموظفين أو على الأقل بتدخل واضح منهم. وفي حال الاستعانة بالذكاء الاصطناعي، يجب وضع إشارة تنوه إلى ذلك بوضوح.
تتزايد المخاوف اليوم حول المعلومات الخاطئة والمضللة مما يؤدي إلى تراجع الثقة بوسائل الإعلام. ويزيد المحتوى الذي يتم إنشاؤه باستخدام الذكاء الاصطناعي من تراجع هذه الثقة. وتقع على عاتق خبراء قطاع العلاقات العامة والاتصالات الإعلامية مسؤولية تزويد وسائل الإعلام بمحتوى لا يجازف بسمعة الوسيلة الإعلامية أو يقلل من مصداقيتها أمام الجمهور المستهدف. لذلك لا بد من وضع خطة لمعالجة أي مشكلة أو أزمة تظهر نتيجة تزويد وسائل الإعلام بمحتوى تم إنشاؤه بواسط الذكاء الاصطناعي.
3. احترام الخصوصية: التأكد من أن جميع أدوات الذكاء الاصطناعي المُستخدمة تتبع قوانين الحفاظ على سرية معلومات الأشخاص وتستخدم محتوى محمياً بحقوق الطبع والنشر.
تذكر دائماً أن البيانات التي تزود بها أدوات الذكاء الاصطناعي بما فيها الملفات وصيغة الطلب ومعلومات حسابك يتم حفظها واستخدامها كإجراء اعتيادي من قبل الشركات التي تدير أدوات الذكاء الاصطناعي. لذلك لا بد من الإلمام بإعدادات الخصوصية وما هي البيانات التي يمكنك تسليمها لإحدى أدوات الذكاء الاصطناعي والبيانات التي يجب عدم مشاركتها لضمان سلامة المعلومات. ومن المتعارف عليه أن قطاع العلاقات العامة والاتصالات الإعلامية يتعامل مع الكثير من المعلومات الحساسة الخاصة بالعملاء والشركات بما فيها المؤسسات الحكومية والشركات المدرجة في البورصة. وللحد من المخاطر، يمكن إدخال البيانات والملفات غير السرية أو تلك البيانات التي تتوفر مسبقاً أمام العامة. يجب أيضاً الإلمام ببروتوكولات أمن البيانات واتفاقيات عدم الإفصاح بشأن استخدام الذكاء الاصطناعي الخاصة بعملائك أو مؤسستك والالتزام بها.
4. الاستعانة بالذكاء الاصطناعي بالشكل الصحيح: التأكد من صحة ودقة المحتوى الصادر عن الذكاء الاصطناعي قبل مشاركته تفادياً لنشر معلومات خاطئة.
يجب الرجوع إلى مصادر موثوقة للتأكد من صحة الحقائق، مثل الدراسات العلمية المرجعية أو جهة ثالثة معروفة أو وسيلة إعلامية موثوقة. ابحث عن المصادر الأصلية ونتائج الأبحاث كلما أمكن عوضاً عن الاستعانة بمراجع غير موثوقة. ومن المعروف أن الذكاء الاصطناعي يقوم بتأليف حقائق وأرقام وحتى روابط لأبحاث وقصص إعلامية غير موجودة، لذلك لا تفترض صحة المعلومات التي يقدمها، ومن الضروري ضمان عدم مساهمة قطاعنا في نشر المعلومات الخاطئة.
وعند التعامل مع محتوى باللغة العربية، تذكر أن أدوات الذكاء الاصطناعي تعمل باستخدام قاعدة محتوى أصغر بكثير مقارنة باللغة الإنجليزية. لذلك ستحتاج إلى تدخل وتحرير بشري بنسبة أكبر وتدقيق إضافي للحقائق.
5. الإنصاف: يجب الانتباه إلى الاعتبارات الثقافية أو التحيزات غير المنصفة في برامج الذكاء الاصطناعي والمحتوى الصادر عنها كي تضمن الشمولية والإنصاف.
أثبتت برامج تعلم الآلة أنها تتبنى بعض الأفكار البشرية المنحازة وتضخمها، مما يعني أن المحتوى الناتج عن الذكاء الاصطناعي قد يكون مضللاً أو يساهم في تضخيم الصور النمطية. لذلك يجب دائماً مراجعة النصوص والصور والمقاطع الصوتية الصادرة عن الذكاء الاصطناعي بدقة شديدة. ويمكن أن يساعد استخدام صيغ طلب مدروسة في الحصول على محتوى أكثر شمولية. ونظراً لوجود العديد من التحيزات ضمن التقنيات الحالية، تقع على عاتقنا مسؤولية مراجعة النتائج والتأكد من أنها تمثل عملاءنا ومؤسساتنا وثقافاتنا ومجتمعاتنا. ومن واجبنا التفكير في الأشخاص الذين لا يتم تبني أصواتهم في محتوى الذكاء الاصطناعي مع الرجوع إلى مصادر أخرى والاستفادة من خبرتها.
6. إنشاء محتوى حقيقي: يمكن الاستعانة بالذكاء الاصطناعي للمساعدة في إنجاز العمل، ولكن تذكر أن الإبداع البشري والعلاقات القوية هي التي تضمن فعالية التواصل.
تذكر أن قدرة الذكاء الاصطناعي تنحصر في الاعتماد على المصادر والمراجع الموجودة وليس على الابتكار. ورغم أن صيغ الطلب التفصيلية قد تساعد في التحكم بنوع النتائج، إلا أن الآلات تربط المعلومات بطريقة مختلفة عن الإنسان، فهي لا تستخدم حواس النظر والشم والتذوق وليس لديها مشاعر. والنص الأفضل أو الصورة الأفضل هي التي تدفعنا إلى الشعور بطريقة مختلفة، ولا يمكن لأحد القيام بذلك حتى الآن أفضل من الأشخاص المبدعين.
7. التفكير في الناس: قد يؤثر استخدام الذكاء الاصطناعي على المجتمع، لذلك تأكد من استخدامه لمساعدة الناس وليس لخدمة أهدافك فقط. شجع أفراد فريقك وكافة العاملين في القطاع على استخدام الذكاء الاصطناعي بشكل منصف ومسؤول.
يؤدي استخدام الذكاء الاصطناعي إلى ظهور تبعات ضخمة لا يمكن معرفتها أو التنبؤ بها في الوقت الحالي. وتتنوع هذه التبعات بين احتمالية خسارة الإنسان لبعض الوظائف أو توفير وظائف جديدة أو التسبب في المزيد من الشمولية أو المزيد من التفرقة. ولا يمكن معرفة هذه التبعات إلا في الوقت المناسب. كل ما يمكننا فعله حالياً هو استخدام تقنيات الذكاء الاصطناعي بوعي، ويتضمن ذلك خطوات عملية مثل عدم محاسبة العملاء على العمل الذي تم إنجازه بواسطة الذكاء الاصطناعي كبديل عن الإنسان، واستخدام مهارات المحررين وكُتّاب المحتوى والمصممين والمصورين في الحالات التي تضفي فيها هذا المهارات قيمة لا تعوض، بما في ذلك الأعمال التي نرسلها لوسائل الإعلام. كما تتضمن هذه الممارسات الواعية استخدام الذكاء الاصطناعي لمساعدتنا على اتخاذ قرارات أفضل بدلاً من الوثوق في التكنولوجيا لاتخاذ هذه القرارات بالكامل.
8. مواصلة التعلم والتطور: مواكبة أحدث التغييرات التي تطرأ على قطاع العلاقات العامة والاتصالات الإعلامية نتيجة استخدام الذكاء الاصطناعي، والاستعداد للتأقلم واستخدام هذه التكنولوجيا بالشكل الأمثل.
مع تطور الذكاء الاصطناعي بشكل مسمر، تتطور القوانين والتشريعات التي تحكم استخدامه في مختلف الأسواق والقطاعات. وسنشهد غالباً المزيد من التغييرات في المستقبل بسبب التطور التقني الهائل واعتمادنا على هذه التطورات بطرق جديدة. ومن المرجح أن نشهد أيضاً المزيد من الجدل حول الملكية الفكرية وحقوق الطبع والنشر، مثل الدعوى القضائية التي رفعتها صحيفة نيويورك تايمز على مايكروسوفت، والتي يمكن أن تسبب تداعيات كبيرة على قطاع الإعلام والعلاقات العامة والاتصالات الإعلامية، إضافة إلى تزايد المخاوف بشأن استخدام الذكاء الاصطناعي في نشر المعلومات الخاطئة والمُضللة. وتقع على عاتقنا مسؤولية متابعة المستجدات والتأكد من استخدامنا للذكاء الاصطناعي بشكل أخلاقي وقانوني.