• Ahmed Moharram

الأبحاث العلمية وسوق البيانات

Updated: Sep 20, 2020



لا يعادل انزعاج الناس من الأبحاث التي تم سحبها في الأيام الأخيرة، سوى انزعاج محكمي الأبحاث العلمية دائماً من المعلومات ذات المصادر غير جيدة التوثيق. والمقصود بتوثيق البيانات لي وجود وثائق لحق استخدام البيانات

لكن المقصود هو توثيق عمليات جمع وفرز وتصحيح البيانات. هذه السلسلة تمهد لسلسلة تالية أشرح فيها ما يمكن لشركات بيع البيانات أن تقوم به لتعظيم أرباحها وكيف يؤثر ذلك على جودة ومصداقية بعض الأبحاث التي تعتمد على هذه البيانات

والحقيقة أن المشكلة التي تواجه بعض الأبحاث التي تعتمد على بيانات مُجهَّلة (وهي البيانات التي تظهر فيها كل البيانات الطبية والمرضية باستثناء بيانات المريض الشخصية كالإسم والعنوان الدقيق ورقم الهاتف .. إلخ) هي تحديداً في كيفية معالجة هذه البيانات منذ لحظة التجهيل وحتى الاستخدام

وفي ظل الاستخدام المتزايد للأجهزة الطبية الحديثة سواء أجهزة الأشعة أو التحاليل أو أجهزة مراقبة المؤشرات الحيوية، وفي ظل تبني كثير من الدول لمفاهيم لمفهوم السجل الطبي الكامل للمريض (Medical Record) الذي أصبح جزءاً أساسياً في كل نظام لإدارة البيانات الصحية (HMIS)

وفي ظل الأكواد الموحدة لوصف الأعراض (ICD10 كمثال) وأيضاً التكامل بين مختلف الأنظمة لتبادل هذه البيانات ليس فقط بين الأجهزة والأنظمة ولكن حتى بين الدول أصبح لدينا كميات ضخمة وتفصيلية ودقيقة عن حالات العديد من المرضى في كثير من الدول حول العالم.

كل هذا كان يفترض به أن يكون مورداً مهماً للبيانات وأداة مهمة في إيجاد إجابات على أسئلة الباحثين في ظل هذه الجائحة. لكن الواقع كان مختلفاً قليلاً لعدة أسباب. من هذه الأسباب طبعاً أن أغلب الدول التي تتبنى كل هذه التقنيات والنظم تمتلك أيضاً قواعد صارمة حول الإفصاح عن أي منها

فالحصول على بيانات الملف الطبي الشامل لمريض تكون فقط من خلال الأطباء الذين يشرفون على حالته أو في حالة الطوارئ. حتى أن بعض المرضى يتم تسجيلهم على الأنظمة باعتبارهم (حالات خاصة)

هؤلاء لا يجوز الاطلاع على بيانات ملفهم الطبي إلا من خلال من يسمحوا له بذلك بشكل رسمي أو من خلال طبيبين في حالة الطوارئ التي تهدد حياة المريض ويكون خلالها فاقد الوعي. وهذه حالات قليلة بضع مئات في كل من هذه الدول.

لكن يبقى الأهم هو أن المستشفيات لا يمكنها منح الباحثين أي بيانات تتعلق بالملفات الطبية للمرضى إلا من خلال عدة موافقات وإجراءات صارمة. هذه الإجراءات بعضها إداري وبعضها تقني. ويتراوح بين الحصول على بيان واحد فقط من كل ملف بناء على مجموعة فلاتلا تمرر إلا ملفات محددة فقط

وقد تصل في أحيان نادرة إلى كل البيانات (ماعدا بيانات المريض الشخصية طبعاً) لكل المرضى. في ظل الجائحة الحالية كان السؤال المفصلي هو المفاضلة بين احترام الخصوصية وملكية الأفراد لملفاتهم الطبية من ناحية وبين تخطي كل خصوصية لحماية المجتمع ككل من ناحية أخرى.

ولا أستطيع أن أقول أن هذا الجدال قد انتهى تماماً حتى الآن، لكن البيانات لم تكن دائماً متاحة للباحثين، وما كان متاحاً منها لم يكن كافياً ولم تتم إتاحته إلا بعد وقت كانت كل دقيقة منه تحمل أعداد جديدة بين إصابات ووفيات. وهو ما رأته بعض الشركات فرصة عظيمة كي تقوم بدور جديد مهم

هذا الدور هو التحصل على هذه البيانات المجهلة وإمداد الباحثين بها. كان النموذج الذي تعرضه هذه الشركات بسيطاً، فقد قدموا الموضوع باعتبار أنك أنت كباحث يجب أن تركز في البحث ولا تضيع وقتك بكل هذه الإجراءات التي تضيف الكثير من التأخير والتكلفة أحياناً لمسار بحثك

بينما هذه الشركات قادرة على أن تخصص الكثير من الجهود والموارد مرة واحدة وتعيد توفير هذه البيانات لكل من يطلبها، ويبقى الفيصل بين النتائج مرتبطاً بأفكار وذكاء الباحثين أنفسهم وكيف يستخدمون هذه البيانات.

أصبح متاحاً لكل باحث أن يحدد الحجم الذي يحتاجه من المعلومات وطبيعتها والفلاتر على هذه البيانات، فيشتريها ويبدأ ما يمليه عليه بروتوكول بحثه. ومن هنا بدأت المشاكل ...

شركات جمع البيانات تأتي بمستويات مختلفة سواء من ناحية نوعية البيانات التي تجمعها ثم تعيد بيعها، أو من ناحية طرق حصولها على هذه البيانات أصلاً، أو حتى درجة مرونتها في تقديم أجزاء من هذه البيانات سواء بالفلاتر على الـ Features/Attributes باختيار بعض المعلومات عن كل مريض

أو بفلاتر على صفات المرضى (مثل اختيار مرضى من فئات عمرية معينة أو من خلفيات عرقية بعينها أو من النساء فقط أو الرجال فقط ..) أضف إلى ذلك أن هذه الشركات تختلف في الطريقة التي تمنحك بها هذه البيانات، فبعضها ستمنحك بيانات تفصيلية تستعملها كما يحلو لك، وأخرى ستمنحك APIs

تلك التي ستمنحك APIs عاده ما تحاسبك كباحث وفقاً لكمية البيانات التي حصلت عليها. الـ APIs للتبسيط هي روبوتس وظيفتها أن تجيب على أسئلتك. هذه الأسئلة عادة تكون الإجابة عليها بكمية من البيانات. حتى الآن، كل هذه الأمور تبدو جيدة. ومن الواضح أنها ستجعل الباحثين يخططون جيداً

يخططون بالطبع لما يجب أن يتم جمعه من بيانات للبحث، وكذلك يخططون لكمية البيانات التي تجعل البحث ذو قيمة معنوية. أي كمية البيانات التي تجعل أي استنتاجات أو خلاصات للبحث ذات دلالة إحصائية قوية تدفعنا لاعتماد تغيير محدد أو رفضه فالاستنتاج المبني على 10000 مشاهدة أدق من المبني على 100

الباحثون يعرفون ذلك، وبالتالي يختارون الشركات التي توفر كميات أكبر من البيانات. والشركات تعرف ذلك ويجب أن يدفعها ذلك لجمع مزيد من المعلومات. وفي ظل ضيق الوقت، وفي ظل القيود والإجراءات المفروضة على الملفات الطبية للمرضى، تلجأ الشركات أحياناً لما يفترضون أنه (( الحل ))

كلمة الحل هنا هي كلمة واحدة ولكنها تشمل الكثير من الأدوات التي يظن البعض أنها لا تؤثر في جودة البيانات. فبعض الشركات مثلاً تجد أن 10% أو 20% من البيانات المتاحة لديها فيها فراغات (أحب أن أسميها فقاعات).

كمثال، أن تجد من بين 10000 ملف طبي، أن 1500 ملف منهم تغيب عنهم بيانات تواريخ التطعيم الحقيقة ضد الأمراض المستوطنة. ولكن حظك عظيم جداً، فأنت تملك تاريخ ميلاد أصحاب هذه الملفات فيقوم مبرمج قليل الخبرة بإضافة العدد الطبيعي من الأيام لتاريخ الميلاد الذي يجعل تاريخ التطعيم صحيح

ويعرض "إنجازه" على مبرمج أقدم قليلاً، فيكتشف أن بعض أيام التطعيم المحسوبة هي أيام أجازات رسمية ويستحيل أن تكون التطعيمات تمت في تلك الأيام، فيحرك هذه التواريخ قليلاً ليتجنب أيام الأجازات. ويعترض عليهم عالم بيانات جديد، فيقول لهم أن الآباء نادراً ما يلتزمون بتواريخ التطعيمات

وأن (الفارق) بين تاريخ التطعيم الصحيح وتاريخ التطعيم الحقيقي يتبع توزيعاً طبيعياً (يقوم بحسابه بناء على بيانات الـ 8500 ملف المتاحة وربما بواسطة نتائج منشورة في بحث آخر) وبالتالي يقوم بإنتاج تواريخ جديدة بناء على هذا التوزيع

المشلكة الحقيقية، أنك إذا حاولت باستخدام الاختبارات الإحصائية أن تكتشف مثل هذا النوع من البيانات (المصطنعة) فأن أي اختبار إحصائي سيجدها أصليه. وإذا عرضتها على خبير في علوم البيانات فسيقول لك فوراً أنها دقيقة لدرجة مقلقة (ما لم يقم عالم البيانات الأول بإضافة خطأ عشوائي مناسب)

كل ما ذكرنا حتى الآن هو نوع واحد من عمليات معالجة البيانات، وإسمه Imputation. وللحقيقة فإن هذه العمليات ضرورية أحياناً. فتصور أن 1500 ملف آخرين غير واضح فيها عدد مرات الولادة بالنسبة للسيدات، وأن ألف بيان آخرين غير واضح فيهم إذا كان الشخص مدخن أم لا .. إلخ

كما أن بعض البيانات التاريخية تسبق تطبيق الأنظمة أحياناً ويصبح من المستحيل أن ترفض المفقود منها لأنك ستفقد جيلاً بأكمله من المرضى، مثال ذلك المعلومات المتعلقة بنوع الرضاعة للشخص هل كانت طبيعية أم صناعية وكم استمرت. كل من ولدوا قبل تاريخ معين لم يتم تسجيل هذه البيانات لهم

حينئذ سينتهي بك الأمر ولديك عدد قليل جداً من الملفات المكتملة (للأمانة، خلال 20 عاماً من العمل في الذكاء الصناعي وعلم البيانات صادفت بيانات مكتملة فقط في تطبيقات الـ IoT) وبالتالي فالاعتراض ليس على تطبيق تقنيات الـ Imputation، ولكن على البيانات التي يجب أن نسمح فيها بذلك

وعلى توثيق هذه العملية كجزء من البيانات نفسها فيكون واضحاً بشكل دقيق في البيانات الفارق بين البيان المحسوب والبيان الحقيقي. لكن هذا ليس كل شيء، ففي بعض الأحيان تكون البيانات المتاحة غير متوازنة إحصائياً. تخيل أنك تقوم ببحث يهدف إلى فهم العلاقة بين التاريخ الصحي وبين مرض نادر

من ضمن 10 آلاف ملف طبي، يوجد شخصان فقط مصابين بهذا المرض النادر. هنا لا يوجد أي قيمة إحصائية لأي شيء ستفعله بهذه البيانات، حتى لو كانت كلها مكتملة. لأن هذه البيانات غير متوازنة في الأساس، وهنا يجب على الشركة التي تبيع البيانات لك أن توضح حقيقة ذلك بناءً على وصفك للهدف من البحث

لكن كعادة بعض رجال البيع (وليس كلهم بالطبع) في كثير من الشركات يهتمون فقط بتحقيق المبيعات. ولن يخبروك بأنه من المستحيل عملياً أن يستطيعوا إمدادك بمعلومات ذات إفادة حقيقية. وبالتالي سيوقعون معك التعاقد المبدئي ويهرولون للقسم الفني .. ليقذفوا إليهم هذه القنبلة

فقد قاموا للتو ببيع معلومات لا تملكها الشركة من الأساس، وعليهم وبسرعة أن يقوموا بشراء هذه البيانات بأي شكل. بعد كثير من السب والشتم بدون صوت (وهو ما يصفه البعض تأدباً ببعض الصمت) يتحرك الجميع للبحث عن المؤسسات المتخصصه في علاج أصحاب هذا المرض النادر

لكن المشكلة أن حتى هذه الأماكن لديها أعداد قليلة من الملفات. وأن كل من هذه الملفات يحتاج موافقة من المريض أو من عائلته أو من المستشفى في أحسن الظروف. وقد يتطلب ذلك وقتاً وتكاليف كثيرة ويظل في النهاية لا يقدم الكم الكافي من البيانات لإضفاء أي قوة لأي استنتاج إحصائي ينبني عليها

وتحت دعوى أهمية هذا التعاقد للشركة، وميزة ظهور إسم الشركة في موضوع كهذا وأثر ذلك على المبيعات المستقبلية وعلى ثقة السوق فيها وبالتالي قدرتها لاحقاً على الحصول بسهولة أكبر على معلومات أكثر .. يضطر فريق علوم البيانات مع الإحصائيين لاستخدام خوارزميات مثل SMOTE

SMOTE هي عائلة من الخوارزميات التي يتم استخدامها لإنتاج بيانات مصطنعة بناء على معلومات حقيقية باستخدام الذكاء الصناعي. وهي متخصصة في التعامل مع البيانات متعددة الأبعاد. ووظيفتها الأساسية هي زيادة البيانات ذات التمثيل النسبي المنخفض لتصبح البيانات الإجمالية أقرب للتوازن

بمعنى أنه عندما يكون لدينا فقط 100 حالة مصابة بالمرض النادر محل الدراسة من أصل 10000 ملف طبي، يمكننا أن نستخدم بعض خوارزميات الـ Over sampling حتى نحول الـ 10 آلاف ملف إلى 15 ألف ملف، منهم 5100 ملف لأشخاص مصابين بهذا المرض النادر، منهم 5000 غير موجودين في الحياة أساساً

دون الدخول في التفاصيل التقنية، تصور مثال تواريخ التطعيم المذكور سابقاً، ولكن بدلاً من إنتاج تواريخ التطعيم فقط، فإنك ترغب في أن تستنتج كل شيء، كالسن والنوع والأمراض المزمنة وفترة الرضاعة ونوعها والعلاجات الدائمة وأنواع الحساسية .. كل شيء البعض يسأل نفسه الآن .. هل هذا ممكن؟

والإجابة (دي أقل حاجة ممكنة) نعم، ولكن لهذا ضروراته أحياناً بشكل لا يمكن تجنبه ليس فقط في مثال الأمراض النادرة. ولنأخذ مثالاً واضحاً في دراسة أثر الإصابة السابقة بمرض سارس على اكتساب مناعة ضد مرض COVID19 (لو تمت الدراسة بشكل غير سريري) ستجد نفسك في هذا المأزق

فأنت تحتاج عدد كافي من الأشخاص الذين أصيبوا بمرض سارس قبل ذلك وتعرضوا بالفعل للعدوى بمرض COVID19 فأظهرت أجسادهم رد فعل سواء بالإصابة أو بالمقاومة. كم عدد من أصيبوا بسارس وظلوا على قيد الحياة ونستطيع تأكيد تعرضهم للعدوى رغم أنهم لم يعلموا أنهم تعرضوا لها ولم يتوجهوا لمستشفى ؟

في هذه الحالة وفي غيرها ستلجأ حتماً لخوارزميات over samlping مثل عائلة SMOTE. لا أحد يستطيع أن يمنعك من ذلك كشركة، لكن لا يمكنك بيع هذه البيانات على أنها ملفات طبية لمرضى حقيقيين، بل عليك الإفصاح عن طبيعة هذه البيانات الخطوات التفصيلية لإنتاجها على هذه الهيئة

هذا كله بالإضافة إلى البيانات التي تم استخدامها لإنتاج هذه البيانات. ويجب أن يكون ذلك جزء من التعاقد ويجب أن يشير الباحث بوضوح لذلك في البحث الخاص به في سلسلة تالية .. سأتحدث عما هو بعد الـ SMOTE وما استخداماته وعن خطورة هذه التقنيات جميعاً على استنتاجات البحث العملي

أوضحنا سابقاً أن البيانات تجبرنا أحياناً كثيره على معالجات تؤدي إلى إيجاد قيم متوقعة مثلاً بدلاً عن قيم غائبة (Imputation) أو إنشاء بيانات كاملة (ملف طبي مثلاً) بناء على عدد من الملفات الطبية القليلة المتاحة لنا ضمن عدد كبير من المشاهدات (over sampling for imbalanced datasets) لكن بعض الشركات تقدم معلومات يجب أن تكون ذات قيمة عالية، وتتقاضى أموالاً مرعبة، ليس من الباحثين فجميعنا يعمل حالهم، حتى هؤلاء الممولين من القطاع الخاص. ولكن من شركات الأدوية، التي تعيد تقديم هذه البيانات للباحثين في الجامعات ليستخدموها في إجراء أبحاثهم ولأنني لم أكن يوماً في منصب داخل شركة صناعة أدوية فأفضل أن أفترض أن شركات الأدوي ستقدم البيانات كما هي وأنها لن تتلاعب بها بأي شكل من الأشكال قبل تقديمها للباحثين المهم، أن الشركات التي تبيع هذه البيانات تدرك جيداً أن شركات الأدوية التي ستدفع لهم أموالاً طائلة ليست ساذجه هم يعرفون أن شركات الأدوية أيضاً لديها علماء إحصاء وعلماء بيانات متخصصين يستطيعون مع جهد غير مضنٍ أن يكتشفوا أن هناك ملفات مصطنعة. كما أن التعاقدات يتم مراجعتها جيداً، فلن تكتفي شركات الأدوية بأن ترى في التعاقد بنداً يقول: "إن البيانات المقدمة قد تم معالجتها بأقصى درجات الحذر المعتادة كي تكون معبرة عن البيئة التي تم جمعها منها" فمحامي شركة الأدوية بإيعاز من علماء البيانات والإحصائيون سيطلب قائمة كاملة بأنواع المعالجات وشروطها ونسبتها ليس فقط نسبتها عموماً ، ولكن نسبة كل نوع من أنواع التعديلات وشروط تطبيقه. كما سيطلبون مؤشر واضح يبين لهم ما تم تصحيحة وما ظل على حاله. كذلك تطلب بعض شركات الأدوية أحياناً البرامج (Source code) الذي تم استخدامه للتعديلات حين يكون المبلغ محترماً كل هذه الضغوط على الشركات الأعلى مكانة في السوق تدفعها لجمع بيانات أكثر وتحرى دقة أعلى في المعالجات. لكنها أيضاً قد تدفع بعض الشركات تحت ضغط التكلفة الزمنية والمالية للمستوى التالي الذي نتحدث عنه الآن فاليوم أتحدث عن أحدث طرق صناعة البيانات التي يجب أن تبدو شديدة ( المنطقية ). وهي Generative adversarial network أو كما يتم اختصارها عاده: GAN هذا الإسم يتم إطلاقه بالأساس على شكل معين من أشكال الشبكات العصبية الاصطناعية artificial neural network أو اختصاراً ANN لا أريد أن أزعجكم كثيراً بالتفاصيل التقنية، ولكنها ببساطة نوع من أنواع التعلُّم الآلي الذاتي اعتماداً على معلومات سابقة حقيقية. هذا التعلُّم ينتج عنه Models. هذه الـ Models قادرة على صناعة بيانات جديدة شديدة القرب من الحقيقة وعلى الرغم من أن أشهر الأمثلة لاستخداماتها هي إنتاج صور مثلاً لأشخاص غير موجودين، أو فبركة فيديوهات أو تسجيلات صوتية لأشخاص ماتوا منذ زمن طويل، فإن السبب في انتشار هذا النوع من الاستخدامات أنه يستهوي القطاع العريض من غير المتخصصين. لكن الواقع أقوى وأعمق من ذلك بمراحل أعرض هنا مثالاً لمنتجات هذه النماذج. كل هؤلاء الأشخاص في الصورة غير موجودين أصلاً، هذه صور مصطنعة بواسطة نموذج تم تدريبه على فهم وجوه البشر لإعادة إنتاج وجوه جديدة


مصدر الصورة: https://futurism.com

ليس هذا فقط، فتدريب هذه النماذج على فهم كيف يتكلم الأشخاص وكيف ينظرون وكيف يتصرفون تسمح بإنتاج العديد من الفيديوهات المخترعة بالكامل يمكنكم البحث في جوجل عن Deepfake لتروا ما تستطيع هذه النماذج فعله ربما يسمح الوقت أن أستعرض تطبيقات مختلفة لهذا النوع من الشبكات في سلسلة مستقلة لكن بالعودة إلى ما نهتم به هنا فإن هذه التقنية قادرة على إنتاج معلومات تتغلب على المشاكل التي تظهر مع خوارزميات SMOTE التي تحدثنا عنها في السلسلة الثانية (الرابط في ثاني تغريدة من هذه السلسلة) فخوارزميات SMOTE تنظر إلى العدد القليل من المشاهدات كأنها كل المشاهدات الممكنة وهذا ما يضع حدود على كل البيانات التي يتم إنتاجها، كما أن SMOTE تركز على جزء من المشاهدات وهو الذي نريد زيادته. أما نماذج GAN فإنها تتعلم من كل المشاهدات وتقوم بصناعة مشاهدات جديدة لها كل الصفات المنطقية، وبالتالي فبعضها ليس ما نرغب في زيادته مثلاً في حالة تطبيق SMOTE لإنتاج الملفات الطبية لعدد من المرضى بمرض نادر لن يتم إنتاج أي ملف لشخص غير مريض بهذا المرض. أما في حالة استخدام GAN فسيكون هناك عدد كبير من الملفات التي تمثل مرضى وهميين لا يظهر فيهم هذا المرض النادر. وسيكون قلة منهم فقط هم من يظهر فيه هذا المرض ويكون دور خبراء علم البيانات لاحقاً هو التحقق من دقة النتائج وحذف البيانات الصناعية التي لا يظهر فيها المرض، والاحتفاظ فقط بتلك التي يظهر فيها المرض. بهذه الطريقة تستطيع الشركات تقديم بيانات دقيقة لدرجة مرعبة، ولا يمكن لأي شخص غير متخصص أن يكشف التلاعب. والأهم أنها بيانات كثيرة بيانات كثيرة بالدرجة التي تسمح لها بتحقيق شهرة وبالتالي عائدات مالية كبيرة. فكما ذكرنا سابقاً، حين يخطط الباحث لأي بحث يعتمد على بيانات سيتم شراؤها، لا تخلو أولوياته من كمية البيانات التي تجعل استنتاجات بحثه في النهاية موضوعية. وهذا دافع لبعض الشركات للأسف لتصنيع بعض البيانات حين تجد شركة تعلن عن أن لديها ملفات طبية لـ 100 ألف شخص مصابون بمرض نادر، وأنت تعلم أن أساساً عدد المرضى في العالم كله 100 ألف، فهذا يبدو محض كذب. في الحقيقة حتى لو أنهم يملكون 50 الف ملف، ستظل علامات الاستفهام قائمة الباحثون (وبالذات الجدد منهم) لا يملكون أن يشغلوا أنفسهم كثيراً بكل تلك التفاصيل لنقص خبرتهم وهو أمر لا حرج عليهم فيه، لكن المشرفون على الأبحاث أولاً، ومحكمو الأبحاث العلمية ثانياً مسؤولون عن إجراء هذه المراجعات. وربما يدعونا هذا لتغيير مهم في آليات تقييم الأبحاث مثل أن تشمل عمليات تقييم الأبحاث تقييم للبيانات التي تم على أساسها البحث وصيغة التعاقد على شرائها والـ QoS التي تشرح تماماً كيفية محافظة الشركة على جودة بياناتها وصيانتها وتعديلاتها وحدود ذلك وشروطه وكيفيه عرضه كجزء من البيانات كذلك يجب أن يكون هناك نوع من الرقابة على شركات جمع وبيع البيانات، أولاً من الناحية الأخلاقية، ومن ناحية التجهيل المطلوب، ومن ناحية الخصوصية، ثم من ناحية المعالجات التعديلات وأثرها. كل الباحثين يفهمون جيداً الطبيعة التراكمية للبحث العلمي، وبالتالي للعلم. حين تقرأ 20 أو 30 ورقة بحثية لتتأكد من أنك تختار نقطة البحث الصحيحة، فإن كل من هذه الأبحاث التي تقرأها ستشارك في صناعة وجهة نظرك وتوجهك وبالتالي بحثك. قوة هذه الأبحاث هي جزء من قوة بحثك وضعف أحدها له تأثير مضر على جهدك وعملك (ناهيك عن وقتك الذي سيضيع في محاولات فهم أسباب اختلاف دراستك عن بعض ما قرأت على ثقة منك بصحة من سبقوك) في سلسلة تالية سأحدثكم عن عمليات تجهيل البيانات وأهميتها وآلياتها




54 views0 comments

Stay up to date with latest articls and news

CONTACT US

  • Twitter
  • YouTube

For general inquiries, please get in touch

© 2023 by A True Crime Podcast. Proudly created with Wix.com