إكس تلوح بقرار جديد بسبب انتشار صور الـ ai الخادعة
آخر تحديث GMT 16:17:04
المغرب اليوم -
*عاجل | سي إن إن عن مصدر مطلع: نتنياهو سيعقد اجتماعا بشأن غزة مع كبار المسؤولين في وقت لاحق اليوم* الرئيس الأميركي دونالد ترامب يطالب بإلغاء محاكمة بنيامين نتنياهو في تل أبيب على الفور أو منحه عفوا. في خرق لاتفاق وقف إطلاق النار الدفاعات الجوية الايرانية تسقط المسيرة الثالثة عند الحدود الغربية مع العراق خلال ساعه واحدة *القناة 13 الإسرائيلية: مشاورات متوقعة غدا لنتنياهو بشأن غزة وكيفية المضي في عملية إطلاق سراح الأسرى* كندا تطالب بوقف إطلاق النار في قطاع غزة والتوصل لحل مستدام صحيفة إسرائيل اليوم تنقل عن مصادر في حماس لا نستبعد التوصل لاتفاق جزئي بالأيام القادمة حزب الله اللبناني يعلق علي وقف إطلاق النار بين إيران ودولة الاحتلال وزارة الخارجية الإيرانية تعترف بتضرر منشآتها النووية بشدّة جراء الغارات الأميركية حركة حماس تكشف سبب فشل التوصل لإنهاء الحرب في غزة الجامعة الملكية المغربية لكرة القدم تعلن موعد وملعب نهائي كأس العرش بين نهضة بركان وأولمبيك آسفي
أخر الأخبار

"إكس" تلوح بقرار جديد بسبب انتشار صور الـ AI الخادعة

المغرب اليوم -

المغرب اليوم -

منصة إكس
واشنطن - المغرب اليوم

مع تسلل الذكاء الاصطناعي بشكل مكثف إلى كافة منصات التواصل الاجتماعي، وسط انتشار كثيف للصور المولدة عبره، وتناقلها بين المستخدمين، بدأت العديد من الشركات الكبرى تتخذ خطوات للحد من هذا الانتشار غير المسيطر عليه.

فبعد أن أعلنت ميتا مطلع الشهر الحالي، (فبراير 2024) أنها في صدد وضع علامة على تلك الصور المولدة عبر الـ AI، جاء دور منصة إكس على ما يبدو.

فقد أعل حساب "DogeDesigner" المقرب من إيلون ماسك، مالك منصة التغريد الشهيرة، اليوم الثلاثاء، أن شركة إكس ستبدأ قريباً في وضع علامة على تلك الصور المولدة بالذكاء الاصطناعي.

كما شارك الحساب المذكور صورة لماسك نفسه، مرتديا معطفاً فضياً، مكتوب في أسلفها "مولدة بالـ AI."
ميتا سبقتها

وكانت شركة ميتا المالكة لتطبيقات واتساب وإنستغرام وفيسبوك، أعلنت قبل نحو أسبوعين أنها قررت وضع علامة لتمييز الصور المصممة بتقنية الذكاء الاصطناعي عبر شبكاتها الاجتماعية خلال الأشهر المقبلة. وأكدت أنها تعمل مع شركاء الصناعة على وضع المعايير الفنية التي ستسهل التعرف على الصور والمقاطع المصورة والصوتية الناتجة عن الذكاء الاصطناعي.

في حين رأى بعض المحللين أن الأمر لا يخلو من الصعوبات، لاسيما مع تطور أدوات الـAI، بشكل متقدم يجعل من الصعب تمييز المزيف من الحقيقي.

فيما اعتبرت جيلي فيدان، الأستاذة المساعدة في تكنولوجيا المعلومات بجامعة كورنيل، تلك "الخطوة من ميتا إشارة جيدة على أنها تولي اهتماما كبيرا لخطورة توليد محتوى مزيف عبر الإنترنت، والذي يمثل مشكلة لمنصاتها"، وفق ما نقلت أسوشييتد برس.

من جهته، لم يحدد نيك كليغ، رئيس الشؤون الدولية في ميتا، موعد بدء ظهور هذه العلامات، لكنه قال إنها ستتوفر خلال الأشهر المقبلة وستكون بلغات مختلفة، لاسيما مع قرب عقد عدة انتخابات مهمة حول العالم

وكانت ميتا بدأت في تطبيق مثل هذه التصنيفات على صور مبتكرة باستخدام أداة "ميتا إيه آي" ( للذكاء الاصطناعي) التابعة لها منذ إطلاقها في ديسمبر الماضي.

تأتي تلك التحركات في وقت بدأ ازدهار الذكاء الاصطناعي يثير مخاوف حول العالم من إقدام أشخاص على استخدامه من أجل إثارة فوضى سياسية من خلال التضليل الإعلامي أو نشر معلومات كاذبة في الأوقات التي تسبق عدة انتخابات حاسمة ستجرى خلال هذا العام في عدة دول

قد يهمك أيضــــــــــــــا

دراسة تحذر أن الذكاء الاصطناعي يُمكن تدريبه على الكذب بكُل سهولة

 

إكس شركة جديدة إنشاء قسم للإشراف على المّحتوى على المنصة

almaghribtoday
almaghribtoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

إكس تلوح بقرار جديد بسبب انتشار صور الـ ai الخادعة إكس تلوح بقرار جديد بسبب انتشار صور الـ ai الخادعة



GMT 12:03 2025 الأربعاء ,25 حزيران / يونيو

أفكار مختلفة لارتداء اللون الوردي في الصيف
المغرب اليوم - أفكار مختلفة لارتداء اللون الوردي في الصيف

GMT 16:24 2025 الأحد ,15 حزيران / يونيو

تشيلسي يستهدف تحقيق كأس العالم للأندية

GMT 17:53 2020 الثلاثاء ,08 كانون الأول / ديسمبر

تستفيد ماديّاً واجتماعيّاً من بعض التطوّرات
 
almaghribtoday

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

almaghribtoday almaghribtoday almaghribtoday almaghribtoday
almaghribtoday almaghribtoday almaghribtoday
almaghribtoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
almaghrib, Almaghrib, Almaghrib