Résumé:
تسعى هذه الدراسة إلى تحليل الدلالات البصرية والرمزية للصور المضللة المولّدة بالذكاء الاصطناعي في سياق حرب غزة 2023، تكمن أهميتها الجوهرية في كونها تسلط الضوء على ظاهرة التضليل البصري المتفاقمة في العصر الرقمي، حيث تزايد استخدام الذكاء الاصطناعي في إنتاج صور تهدف إلى تزييف الحقائق وتشكيل الرأي العام، وتزداد هذه الأهمية في ظل مركزية القضية الفلسطينية كقضية عربية وإسلامية ذات أبعاد تاريخية وإنسانية عميقة، مما يجعلها عرضة بشكل خاص لحملات التشويه والتضليل الإعلامي. تبرز الدراسة الحاجة الماسة إلى فهم كيفية تأثير هذه الصور المضللة على إدراك المتلقي، وكشف الآليات المعقدة التي تُستخدم بها التقنيات الحديثة لخدمة أجندات معينة، كما تُسهم بشكل فعال في تعزيز الوعي النقدي لدى الجمهور بضرورة التحقق من المحتوى البصري المتداول، وتهدف أيضا إلى تحليل الدلالات البصرية والرمزية للصور المضللة المولّدة بالذكاء الاصطناعي خلال الصراع، والكشف عن الآليات والخصائص التقنية التي يعتمدها الذكاء الاصطناعي في إنتاج صور مضللة وتوظيفها للتأثير على الإدراك العام، وتقديم إطار تحليلي لفهم طبيعة التضليل البصري الناتج عن الذكاء الاصطناعي وأساليب مواجهته.
تعتمد الدراسة على المنهج السيميولوجي لفك شفرة المعاني الكامنة، وذلك بتطبيقها على عينة قصدية من الصور المتداولة عبر الفضاء الرقمي خلال حرب غزة 2023، كما تكشف الدراسة الفهم الأعمق للآليات التي تعمل بها هذه الصور في التأثير على الرأي العام، حيث أصبح من المستحيل على العين المجردة التمييز بين الحقيقي والمفبرك، مما يقوض أسس الحقيقة الموضوعية ويفتح الباب واسعًا أمام التلاعب الإعلامي ، وتؤكد الدراسة أن التضليل الإعلامي وخاصة عبر الصور المولدة بالذكاء الاصطناعي لم يعد مجرد أداة دعائية هامشية، بل تحول إلى سلاح فتاك في حروب العقول الموازية للحروب العسكرية قادر على تشكيل الوعي الجماهيري وتغيير الرواية الإعلامية بشكل خفي وعميق
Abstract:
This study aims to analyze the visual and symbolic connotations of misleading images generated by Artificial Intelligence (AI) in the context of the 2023 Gaza War. Its fundamental importance lies in shedding light on the escalating phenomenon of visual disinformation in the digital age, where the use of AI in producing images to distort facts and shape public opinion has proliferated. This significance is further amplified by the centrality of the Palestinian cause as a deep-rooted Arab and Islamic issue with profound historical and humanitarian dimensions, making it particularly vulnerable to campaigns of distortion and media manipulation. The study highlights the urgent need to understand how these misleading images affect the recipient's perception and to uncover the complex mechanisms through which modern technologies are used to serve specific agendas. It also effectively contributes to enhancing the public's critical awareness regarding the necessity of verifying circulated visual content.
To achieve this, the study aims to analyze the visual and symbolic connotations of AI-generated misleading images during the conflict, reveal the mechanisms and technical characteristics employed by AI in producing and utilizing deceptive images to influence public perception, and provide an analytical framework for understanding the nature of AI-driven visual disinformation and methods to counter it.
The study adopts the semiological approach to decode the latent meanings, applying it to a purposive sample of images circulated in the digital space during the 2023 Gaza War. The study reveals a deeper understanding of the mechanisms by which these images influence public opinion, making it impossible for the naked eye to distinguish between authentic and fabricated content, thus undermining the foundations of objective truth and widely opening the door to media manipulation. The study confirms that media disinformation, especially through AI-generated images, is no longer merely a marginal propaganda tool, but has transformed into a deadly weapon in information warfare, parallel to military conflict, capable of subtly and profoundly shaping public consciousness and altering media narratives.