احذروا.. هكذا تسرب منصات الذكاء الاصطناعي بياناتكم
AHC: 0.80(%)   AIB: 1.07(%)   AIG: 0.16(%)   AMLAK: 5.00(%)   APC: 7.25(%)   APIC: 2.23(1.36%)   AQARIYA: 0.78(%)   ARAB: 0.84(1.18%)   ARKAAN: 1.29(0.00%)   AZIZA: 2.84(%)   BJP: 2.80(%)   BOP: 1.48(0.67%)   BPC: 3.73(3.04%)   GMC: 0.79(3.95%)   GUI: 2.00(%)   ISBK: 1.10(0.00%)   ISH: 1.00(2.04%)   JCC: 1.52(0.65%)   JPH: 3.58( %)   JREI: 0.28(%)   LADAEN: 2.50( %)   MIC: 2.47(%)   NAPCO: 0.95( %)   NCI: 1.68(%)   NIC: 3.00(0.00%)   NSC: 2.95(%)   OOREDOO: 0.80(0.00%)   PADICO: 1.00(0.99%)   PALAQAR: 0.42(%)   PALTEL: 3.92(0.76%)   PEC: 2.84(%)   PIBC: 1.05(%)   PICO: 3.50(%)   PID: 1.91(%)   PIIC: 1.72(%)   PRICO: 0.29(%)   PSE: 3.00(%)   QUDS: 1.06(0.00%)   RSR: 4.50(%)   SAFABANK: 0.65(%)   SANAD: 2.20(%)   TIC: 2.98(%)   TNB: 1.21(0.83%)   TPIC: 1.95(0.00%)   TRUST: 2.85(%)   UCI: 0.38(%)   VOIC: 5.29(%)   WASSEL: 1.00(0.99%)  
12:04 مساءً 20 حزيران 2023

احذروا.. هكذا تسرب منصات الذكاء الاصطناعي بياناتكم

الاقتصادي - نشر مجموعة من الباحثين في جامعات أميركية وسويسرية بالتعاون مع شركة "غوغل" وشركتها الفرعية DeepMind، ورقة بحثية توضح كيف يمكن أن تتسرب البيانات من منصات إنشاء الصور التي تستند في عملها إلى نماذج الذكاء الاصطناعي التوليدي مثل: DALL-E أو Imagen أو Stable Diffusion.

إذ تعمل هذه المنصات جميعها بالطريقة نفسها التي تعتمد على جانب المستخدم الذي يكتب مطالبة نصية محددة، على سبيل المثال: "كرسي بذراعين على شكل ثمرة أفوكادو"، ويحصل على صورة مولدة من النص خلال ثوانٍ.

وقد دُربت نماذج الذكاء الاصطناعي التوليدي المستخدمة في هذه المنصات على عدد كبير جدًا من الصور التي تحمل وصفًا محددًا سابقًا، وتكمن فكرة الشبكات العصبية في قدرتها على إنشاء صور جديدة وفريدة بعد معالجة كمية هائلة من بيانات التدريب.

ومع ذلك، تُظهر الدراسة الجديدة أن هذه الصور ليست دائمًا فريدة، وفي بعض الحالات، يمكن أن تقوم الشبكة العصبية بإعادة إنتاج صورة مطابقة تمامًا لصورة سابقة استخدمت في التدريب، وهذا يعني أن الشبكات العصبية قد تكشف عن المعلومات الخاصة دون قصد.

وتتحدى هذه الدراسة وجهات النظر القائلة إن نماذج الذكاء الاصطناعي المستخدمة في توليد الصور لا تحفظ بيانات التدريب الخاصة بها، وإن بيانات التدريب قد تظل خاصة إذا لم يُكشف عنها.

تقديم المزيد من البيانات
يمكن أن تكون نتائج أنظمة التعلم العميق مدهشة بالنسبة لغير المتخصصين، ويمكن أن يظنوا أنها سحرية، ولكن في الواقع، ليس هناك أي سحر في الأمر، فجميع الشبكات العصبية تستند في عملها إلى المبدأ نفسه، وهو التدريب باستخدام مجموعة كبيرة من البيانات، وتوصيفات دقيقة لكل صورة، على سبيل المثال: سلاسل من صور القطط والكلاب.

وبعد التدريب، تعرض الشبكة العصبية صورة جديدة ويُطلب منها تحديد هل هي لقطة أم كلب؟ ومن هذه النقطة المتواضعة، ينتقل مُطوّرو هذه النماذج إلى سيناريوهات أكثر تعقيدًا، فيقومون بإنشاء صورة لحيوان أليف غير موجود بالفعل باستخدام الخوارزمية التي دُربت على العديد من صور القطط. وتُجرى هذه التجارب ليس فقط باستخدام الصور، ولكن أيضًا بالنصوص ومقاطع الفيديو وحتى الصوت.

نقطة البداية لجميع الشبكات العصبية هي مجموعة بيانات التدريب، إذ لا تستطيع الشبكات العصبية إنشاء كائنات جديدة من العدم. على سبيل المثال، لإنشاء صورة لِقطةٍ، يجب على الخوارزمية دراسة آلاف الصور الفوتوغرافية أو الرسومات الحقيقية للقطط.

Loading...