bah الآثار القانونية للحديث مع ( ChatGPT ) - بيروت تايمز جريدة يومية لبنانية وعربية تصدر في اميركا Beirut Times Daily Lebanese newspaper

الآثار القانونية للحديث مع ( ChatGPT )

08/31/2025 - 13:35 PM

absolute collision

 

 

د. فهيم الشايع *

 

في السابق عندما كان يدور هناك حديثاً بين شخصين يحمل هذا الحديث قيمة قانونية، يترتب بموجبها بعض الآثار من خلال التصورات الواقعية التي تفرضها حدود المسؤولية، حتى السكوت من قبل أحد الأشخاص قد يكلفه الجزاء للامتناع – مثالاً – عن تقديم العون أو الاخبار عن جريمة، وهذا النتائج متمركزة على افتراضات قانونية قد أصبحت بمثابة المسلمات، وهي حدود المسؤولية التي يفرضها القانون، لكن ماذا الآن هل تسير هذه الافتراضات على تلك الأحاديث التي نجريها بصحبة ChatGPT؟

السؤال الذي نحاول طرحه في هذا المقال ما القيمة القانونية للحديث مع نسخ الذكاء الاصطناعي؟

هل من الممكن الذهاب من كونه يتمتع بشخصية حتى ولو كانت ذات تصنيف خاص عن الشخصية الطبيعية أو الاعتبارية؟ وبالتالي الحديث عن مسؤولية حتى ولو كانت من نوع خاص، أو الذهاب إلى القواعد العامة والتفتيش بين تحقق التقارب أو الانطباق من عدمه في قواعد المسؤولية عن الأشياء؟

في هذا المقال لا يشغلني الجواب بالقدر الذي يهمني توصيف السؤال الذي يدور بداخلي، ومن الطبيعي قد أفشل في ضبط التوصيف من خلال سؤال واحد؛ الأمر الذي يأخذني لتفريع الأسئلة ومن ثم إعادة تأصيلها.

دعنا ابتداء نسلك طرق مختلفة للحديث هنا من خلال تتبع بعض الصور، وأول الأمثلة: نجد أن أغلب المشرعين قد سلكوا نهجاً عقابياً يتمحور حول الاعتداد بالظرف المشدد للعقوبة في حال وجود أكثر من شخصين، حتى لو لم يحضر أحدهما مسرح الجريمة، لتكون – وفق رؤية المشرع – الخطورة الاجرامية تزداد كلما ازداد عدد المجرمين، وهذا الأمر منطقي، فماذا الوضع هنا هل يعتد ( بالحديث مع  ChatGPT) ليشكل ظرفاً مشدداً، دعنا نأخذ الأمور على مستوى الحدود الفاصلة بين التجريم من سواه.

يتشارك أغلب المشرعين فكرة أن الحد الفاصل للبدء بالمسائلة عن الأفعال المجرمة هي الانتقال من مرحلة التفكير والتحضير إلى الأفعال التنفيذية، لتكون مدخلاً تشكل الجريمة أو الشروع فيها، فهل الحديث مع (ChatGPT) ينتمي إلى التفكير المباح أم إلى الفعل المجرم؟

تتنافس هنا المصلحة الخاصة – لشركات الذكاء الاصطناعي – ضد المصلحة العامة المتمثلة بالوضع المثالي مفاده: أن تقوم هذه المحادثات على النصح والتوجيه إلى السلوك المجتمعي المقبول، ولعلنا ننتمي اليوم إلى عالم تحكمه الرأسمالية، لتحكم نتائجها الابتعاد بين صورتين الواقعية والمثالية، لتقودنا – في نهاية المطاف – إلى تجريم هذه الأحاديث على الورق فقط، وتسوقها في الوقت ذاته على متجر تطبيقاتها.

كلنا نعلم بأن القانون ومن قبله الأخلاق تفرض بعض الالتزامات المهنية يكاد يصل انتهاكها إلى مستوى التجريم، ولعل أهمها الحفاظ على أسرار العملاء أو على أسرار الوظيفة – بشكل عام – فماذا عن الطبيب الذي يشارك أسرار مرضاه في الحديث مع (ChatGPT) ؟، وماذا عن المحامي؟ هل يعد هذا الحديث انتهاكاً للخصوصية، لعله يمكننا هنا الحديث عن محاولة للجواب، سننطلق من المعنى الذي يفرضه الهيكل اللغوي والقانوني لمصطلح افشاء الاسرار، وصولاً إلى النتيجة، فلو قلنا إن المشرع أحاط أسرار المريض – مثالاً – بهذه الحماية القانونية من حقه في ألا يتدخل أحداً في حياته الخاصة ولا تكون مشاعاً للآخرين، فهل يتحقق معنى الاخرين في (الحديث مع ChatGPT)؟ وهذا أمر فيه كلام، ومن زاوية أخرى لو ارتهنا هذا الاختراق بحتمية وصول الاسرار إلى الاخرين، فهل يبقى الوضع غير مجرم لطبيب ينشر – مثالاً- أسرار مرضاه على مواقع التواصل دون أن يكون هناك أحداً قد قرأ هذه الأسرار؟

أمام تنامي الاعتماد على الذكاء الاصطناعي من قبل المستخدمين في التحدث عن مشاعرهم أو مشكلاتهم الخاصة، دون إدراك للآثار القانونية المحتملة، فما قيمة الاعتراف الذي تم الادلاء به أمام الذكاء الاصطناعي؟ هل يمكن الاحتجاج به؟

في الآونة الأخيرة صرح سام التمان الرئيس التنفيذي لشركة Open Ai بأن الحديث مع ChatGPT يمكن أن يراجع بصفة بشرية ويمكن أن يطلب قانوناً إذ قال " لا تشارك معلومات شخصية أو حساسة مع ChatGPT خصوصاً ما تريد أن لا يُرى أو يُستخدم في أماكن أخرى) ، وبالعودة على تصور الاعتراف أمام ChatGPT وقيمته القانونية فيرى الكاتب، بأنه ليس من السهولة الاعتداد بهذا الاعتراف؛ لصدوره – في اغلب الأحيان – غير دقيق وغير واضح المعالم مما يسبب الشك الذي يترجم لصالح المتهم، لكنه يُمكن أن يكون مرحلة يستند إليها الاعتراف، ليناقش من تحاور فيما يخدم وقائع القضية.

كذلك إذا ما طور القائمون على شركات الذكاء الاصطناعي نسخاً جديدة تجعل المستخدم يستفاد من خدمة تقديم النصائح والارشادات الدقيقة المسؤولة في مختلف المجالات، فما القيمة القانونية لهذه النصائح؟ ما مدى مسؤولية هذه الشركات عن أخطاء هذه النسخ؟ هل المسؤول المستخدم أم المصنع أو المطور أم مدخل البيانات؟

تخيل عن أداة تجمع الأشخاص والمعدات لتكمل النقص في كل من يرغب بمشروع ما؟ الحديث قبل التمكين من الالتقاء بالأخرين ما قيمته القانونية؟

جرائم خطيرة مثل الاتجار بالبشر والمتاجرة ببيع الاعضاء البشرية يُمكن في المستقبل - المترصد على اعتاب الحاضر - أن تدار عبر محادثات خاصة وفق أدوات شركات الذكاء الاصطناعي، وإذا كنت في هذا المقال أنوي تقديماً لهذا الكم من الأسئلة محاولاً المطالبة – كغيري ممن سبقني من السادة الباحثين – بوضع قوانين تحدد وتنظم الحديث وآلية المساعدة مع الذكاء الاصطناعي، فإني أود أن أختم هذا المقال بالسؤال حول القيمة القانونية لحديث الذكاء الاصطناعي فيما بينهما؟ ومسؤولية الفاعل عن الجرائم المرتكبة؟.

 

 *دكتوراه في القانون المدني / دراسات خاصة في الفلسفة وباحث في مقارنة الأديان

 

 

 

Share

Comments

There are no comments for this article yet. Be the first to comment now!

Add your comment