يمتلئ الإنترنت بالمعلومات الخاطئة أو المضللة. سواء تم نشرها بقصد أو بدون قصد، وشبكات اجتماعية عديدة مثل فيسبوك أو تويتر تعرض توضيح بجانب المنشور في حالة الشك في أنه مضلل، وبالطبع يلعب الذكاء الاصطناعي دور كبير في ذلك.
وتكون المعلومات المضللة أكثر خطرًا في حالة أنها تؤثر في مجالات حساسة. مثل مجالات الأمن الرقمي، الصحة، والأمن العام. وقد كشفت إحدى طلاب التخرج والتي تقوم بإجراء أبحاث في مجال الأمن الرقمي عن خطورة الذكاء الاصطناعي في هذا الصدد.
هذا حيث كشفت بريانكا راناد أن الذكاء الاصطناعي قادر على تأليف معلومات خاطئة ومضللة في مجالات حساسة مثل الطب، الدفاع، وغيرها. كما أنه يفعل ذلك بشكل مقنع لدرجة أن بعض المتخصصين قد يصدقوه.
الذكاء الاصطناعي يهدد أمن المعلومات
قد يتم استخدام المعلومات المضللة بهدف تشويه شخصية عامة أو جهة ما. إلا أن استخدامها في مجالات حساسة قد يؤدي إلى عواقب مخيفة.
وتلك العواقب قد تضم تقديم نصيحة طبية خاطئة من طبيب لمريض أو اتخاذ قرار يؤثر على آلاف البشر. وقد قامت بريانكا وفريقها بإجراء اختبار ذكي لقياس مدى خطورة المحتوى المضلل الذي ينشئه الـAI. هذا حيث تم تكليف نماذج منه بكتابة أخبار أمنية مزيفة أو تأليف دراسات طبية مزيفة حول كوفيد-19.
وتم تقديم المحتوى الذي تم إنتاجه إلى متخصصين في تلك المجالات. وحينها لوحظ أن عدد كبير من هؤلاء المتخصصين قد تم خداعهم بسهولة.
ومعظم التقنيات المستخدمة في التعرف على المعلومات المضللة وإدارتها تعتمد على قدرات الـAI، حيث أنه يتيح للمتخصصين أن يتأكدوا من صحة كم كبير من المعلومات في فترة قصيرة.
وبالرغم من أن الذكاء الاصطناعي قد ساعد الإنسان في التعرف على المعلومات المضللة بسرعة وكفاءة، إلا أنه وبشكل مثير للسخرية قد تم استخدامه أيضًا في كتابة وإنتاج تلك المعلومات بأشكالها المختلفة.
وما تم إنتاجه من محتوى مضلل من طرف تلك التقنيات كان كافي لإقناع كلًا من الخبراء الأمنيين والأطباء، ومثال على ذلك، تمكن أحد نماذج الذكاء الاصطناعي من كتابة تقرير عن ثغرات أمنية معينة، وعندما تم قراءة هذا التقرير من طرف أشخاص متخصصين في هذا المجال لم يعترضوا على محتواه.
وقد تمكنت نفس النماذج أيضًا من القيام بكتابة تقارير حول جائحة فيروس كوفيد-19، وهو ما يتم إما بالاعتماد على نموذ GPT من OpenAI أو BERT من جوجل. وهي نماذج رئيسية للذكاء الاصطناعي.
أضف تعليق