شبكة المعتقدات العميقة Deep Belief Networks (DBN) هي إحدى خوارزميات التعلم العميق الاحتمالية غير الخاضعة للإشراف .
تم تدريب DBNs مسبقًا باستخدام خوارزمية Greedy حيث يستخدم نهج طبقة تلو طبقة لتعلم جميع الأوزان التوليدية والأساليب التنازلية.
حيث يتم إنشاء هذه الشبكة من خلال إلحاق عدة طبقات من آلات بولتزمان المقيدة (RBM) ويمكن لكل طبقة RBM التواصل مع كل من الطبقات السابقة واللاحقة.
للمزيد أكثر عن هذه الخوارزمية اقرأوا هذا المقال🌸🌸
https://smartcontent.top/deep-belief-networks/
تم تدريب DBNs مسبقًا باستخدام خوارزمية Greedy حيث يستخدم نهج طبقة تلو طبقة لتعلم جميع الأوزان التوليدية والأساليب التنازلية.
حيث يتم إنشاء هذه الشبكة من خلال إلحاق عدة طبقات من آلات بولتزمان المقيدة (RBM) ويمكن لكل طبقة RBM التواصل مع كل من الطبقات السابقة واللاحقة.
للمزيد أكثر عن هذه الخوارزمية اقرأوا هذا المقال🌸🌸
https://smartcontent.top/deep-belief-networks/
الفولدرز اللى كاتب فيها المحتوى سواء بالاحتمالات او بال deep learning او غيرها..
1- الفولدر الاول للاحتمالات
https://drive.google.com/drive/folders/1jQufqc0FrdDclixIieuTtgeqI5K0DS0C?usp=sharing
2- الفولدر التانى بالاحصاء
https://drive.google.com/drive/folders/1VXR3E1k9YuMjU84M-R3bbbgSMiPkS0ZA?usp=sharing
3- الفولدر الثالث خاص بالجبر الخطي
https://drive.google.com/drive/folders/1ErPjw-943XT8BkTf8GfhujhD6sZctTrR?usp=sharing
4- الفولدر الرابع ل Machine learning
https://drive.google.com/drive/folders/1EOsvrqKFEoX4QfEF6Dk8Kff_dwFOMXFc?usp=sharing
5- الفولدر الخامس ل deep learning cmu
https://drive.google.com/drive/folders/1uTM-ZTfj0xK3A2eeEJT4DMn-Gz3OJTe3?usp=sharing
6- الفولدر السادس ل nyu deep learning
https://drive.google.com/drive/folders/1z7NrOeUYWFQwhRrzh3mvLWhMoiSUG6Jc?usp=sharing
7- الفولدر السابع ل الرياضيات الخاصة بالحاسب
mathematical foundations of machine learning
https://drive.google.com/drive/folders/1L_Vd6cwVJ8gbYrs-9Z5llGci2MckaHqw?usp=sharing
8- الفولدر الثامن وهو عن موضوعات متفرقة
https://drive.google.com/drive/folders/1EpiSpyx3ns40OAMa1Q6HF70lwcz8vyhv?usp=sharing
9- فولدر جديد عن ال deep learning
https://drive.google.com/drive/folders/1sRrQt_HRBQZLzXfFztCu89-d27Rciccy?usp=sharing
#منقول بايثون للجميع
@CodeProgrammer
1- الفولدر الاول للاحتمالات
https://drive.google.com/drive/folders/1jQufqc0FrdDclixIieuTtgeqI5K0DS0C?usp=sharing
2- الفولدر التانى بالاحصاء
https://drive.google.com/drive/folders/1VXR3E1k9YuMjU84M-R3bbbgSMiPkS0ZA?usp=sharing
3- الفولدر الثالث خاص بالجبر الخطي
https://drive.google.com/drive/folders/1ErPjw-943XT8BkTf8GfhujhD6sZctTrR?usp=sharing
4- الفولدر الرابع ل Machine learning
https://drive.google.com/drive/folders/1EOsvrqKFEoX4QfEF6Dk8Kff_dwFOMXFc?usp=sharing
5- الفولدر الخامس ل deep learning cmu
https://drive.google.com/drive/folders/1uTM-ZTfj0xK3A2eeEJT4DMn-Gz3OJTe3?usp=sharing
6- الفولدر السادس ل nyu deep learning
https://drive.google.com/drive/folders/1z7NrOeUYWFQwhRrzh3mvLWhMoiSUG6Jc?usp=sharing
7- الفولدر السابع ل الرياضيات الخاصة بالحاسب
mathematical foundations of machine learning
https://drive.google.com/drive/folders/1L_Vd6cwVJ8gbYrs-9Z5llGci2MckaHqw?usp=sharing
8- الفولدر الثامن وهو عن موضوعات متفرقة
https://drive.google.com/drive/folders/1EpiSpyx3ns40OAMa1Q6HF70lwcz8vyhv?usp=sharing
9- فولدر جديد عن ال deep learning
https://drive.google.com/drive/folders/1sRrQt_HRBQZLzXfFztCu89-d27Rciccy?usp=sharing
#منقول بايثون للجميع
@CodeProgrammer
اذا نقلت المشكلـة الى مديرك فأنت مراسل ، واذا نقلتهـا مع اقتراح بحلهـا فأنت مستشـار ، أما اذا نقلتهـا وقـد بادرت بحلهـا فأنت قائـد.
ستيفـن كوفي
ستيفـن كوفي
افضل كورس اكاديمي لتعلم الذكاء الاصطناعي يعلن عن الكورس الجديد المجاني ولفترة محدودة سارع بالتسجيل
رابط الكورس متاح في قناتنا الجديدة:
https://t.me/DataScienceT/18890
رابط الكورس متاح في قناتنا الجديدة:
https://t.me/DataScienceT/18890
Did you know #Python includes a
You can use it to output calendars like the Unix cal program
Here's an example 👆
By: @CodeProgrammer ⭐️
calendar
library? 🐍📆You can use it to output calendars like the Unix cal program
Here's an example 👆
By: @CodeProgrammer ⭐️
شبكة عصبية تكرارية↩️
Recurrent neural network(RNN)
غالبًا ما يرتبط إستخدام الشبكة العصبية التكرارية بالتعلم العميق وإستخدام المتسلسلات لتطوير نماذج تحاكي النشاط العصبي في الدماغ البشري فما هي🤔.
هي نوع من الشبكات العصبية الإصطناعية المصممة للتعرف على النمط من تسلسل البيانات، مثل السلاسل الزمنية كالتعرف على الكلام، ترجمة الآلة وما إلى ذلك🤩.
لفهم الشبكات التكرارية، أولاً يجب أن نفهم أساسيات الشبكة العصبية ذات تغذية أمامية🤨:
تمت تسمية كل من هاتين الشبكتين، شبكة عصبية تكرارية و شبكة عصبية ذات تغذية أمامية على اسم الطريقة اللذان تنقلان بها المعلومات من خلال سلسلة من العمليات الحسابية التي يتم إجراؤها على عقد الشبكة😲. أحدهما يغذي المعلومات مباشرة (لا تلمس نفس العقدة مرتين أبدًا)، بينما تقوم الأخرى بتدويرها عبر حلقة، والأخيرة هي ما تسمى بالتكرارية.
من ناحية أخرى، تأخذ الشبكات التكرارية مدخلاتها، ليس فقط مثال الإدخال الحالي الذي تراه، ولكن كذلك ما رأته سابقًا في الوقت.
يؤثر القرار التي توصلت إليه الشبكة العصبية التكرارية في الوقت ز-١ على قرار وصولها إلى لحظة واحدة في وقت لاحق ز🧐.
لذا فإن الشبكات التكرارية لها مصدران للمدخلات، الحاضر والماضي القريب، واللذان يتحدان لتحديد كيفية استجابتهم للبيانات الجديدة، تمامًا كما نفعل في الحياة😯.
أما الخطأ التي تولده سيعود عبر الانتشار العكسي ويستخدم لضبط الأوزان حتى لا يمكن للخطأ أن تقل أكثر بعدها !.
تذكر أن الغرض من الشبكات التكرارية هو التصنيف الدقيق للمدخلات المتسلسلة.
نحن نعتمد على الانتشار العكسي للخطأ والنزول الاشتقاقي للقيام بذلك🤔.
المصادر :
https://coursera.org/specializations/deep-learning
https://en.m.wikipedia.org/wiki/Recurrent_neural_network
#منقول
Recurrent neural network(RNN)
غالبًا ما يرتبط إستخدام الشبكة العصبية التكرارية بالتعلم العميق وإستخدام المتسلسلات لتطوير نماذج تحاكي النشاط العصبي في الدماغ البشري فما هي🤔.
هي نوع من الشبكات العصبية الإصطناعية المصممة للتعرف على النمط من تسلسل البيانات، مثل السلاسل الزمنية كالتعرف على الكلام، ترجمة الآلة وما إلى ذلك🤩.
لفهم الشبكات التكرارية، أولاً يجب أن نفهم أساسيات الشبكة العصبية ذات تغذية أمامية🤨:
تمت تسمية كل من هاتين الشبكتين، شبكة عصبية تكرارية و شبكة عصبية ذات تغذية أمامية على اسم الطريقة اللذان تنقلان بها المعلومات من خلال سلسلة من العمليات الحسابية التي يتم إجراؤها على عقد الشبكة😲. أحدهما يغذي المعلومات مباشرة (لا تلمس نفس العقدة مرتين أبدًا)، بينما تقوم الأخرى بتدويرها عبر حلقة، والأخيرة هي ما تسمى بالتكرارية.
من ناحية أخرى، تأخذ الشبكات التكرارية مدخلاتها، ليس فقط مثال الإدخال الحالي الذي تراه، ولكن كذلك ما رأته سابقًا في الوقت.
يؤثر القرار التي توصلت إليه الشبكة العصبية التكرارية في الوقت ز-١ على قرار وصولها إلى لحظة واحدة في وقت لاحق ز🧐.
لذا فإن الشبكات التكرارية لها مصدران للمدخلات، الحاضر والماضي القريب، واللذان يتحدان لتحديد كيفية استجابتهم للبيانات الجديدة، تمامًا كما نفعل في الحياة😯.
أما الخطأ التي تولده سيعود عبر الانتشار العكسي ويستخدم لضبط الأوزان حتى لا يمكن للخطأ أن تقل أكثر بعدها !.
تذكر أن الغرض من الشبكات التكرارية هو التصنيف الدقيق للمدخلات المتسلسلة.
نحن نعتمد على الانتشار العكسي للخطأ والنزول الاشتقاقي للقيام بذلك🤔.
المصادر :
https://coursera.org/specializations/deep-learning
https://en.m.wikipedia.org/wiki/Recurrent_neural_network
#منقول
Need to convert between different color systems such as RGB and HSV?
#Python can do that with its
Here's an example 👆
By: @CodeProgrammer ⭐️
#Python can do that with its
colorsys
library! 🐍Here's an example 👆
By: @CodeProgrammer ⭐️
Need to add a timestamp to a file in Python 🐍?
That's easy with the module datetime 🚀
Here's an example 👆
By: @CodeProgrammer ⭐️
That's easy with the module datetime 🚀
Here's an example 👆
By: @CodeProgrammer ⭐️
Do you enjoy reading this channel?
Perhaps you have thought about placing ads on it?
To do this, follow three simple steps:
1) Sign up: https://telega.io/c/codeprogrammer
2) Top up the balance in a convenient way
3) Create an advertising post
If the topic of your post fits our channel, we will publish it with pleasure.
Perhaps you have thought about placing ads on it?
To do this, follow three simple steps:
1) Sign up: https://telega.io/c/codeprogrammer
2) Top up the balance in a convenient way
3) Create an advertising post
If the topic of your post fits our channel, we will publish it with pleasure.
Track Phone Number Using Python with Code Example
https://morioh.com/p/f9d4d715debf?f=5c21fb01c16e2556b555ab32
By: @CodeProgrammer ⭐️
https://morioh.com/p/f9d4d715debf?f=5c21fb01c16e2556b555ab32
By: @CodeProgrammer ⭐️
خلال هذا المقال البسيط هنركز ان شاء الله علي ما هي اساليب التحسين التي يمكن تطبيقها علي الشبكات العصبيه الاصطناعيه من نوع ال CNN (Convolutional Neural Network) والتي من خلالها يمكننا زياده كفاءه الشبكه والحصول علي نتائج ادق وفي وقت اقل.
من تلك الاساليب ما يلي:
1 . Gradient descent optimization:
هو خوارزمية تحسين تستخدم لتقليل داله الخسارة في CNN.
كما ان تلك الخوارزميه بها العديد من النقاط الهامه التي تتشابك معها وهي
Stochastic Gradient Descent (SGD), Adaptive Moment Estimation (Adam), and Root Mean Square Propagation (RMSprop).
2 . Weight initialization:
او كما يعرف بالعربيه بتهيئه الاوزان، يمكن أن يكون لتهيئة الأوزان في شبكة CNN تأثير كبير على أدائها. يمكن أن يؤدي التهيئة الصحيحة للأوزان إلى منع النموذج من التعثر في حل دون المستوى الأمثل (Not the Optimal Solution)وتحسين سرعة التقارب.
ومن اجل تطبيق هذا الاسلوب هناك العديد من الطرق اتباعها مثل استخدام خوارزميات التحسين الحديثه وغيرها والتي سنتطرق اليها فيما بعد.
3 . Dropout regularization:
التسرب هو تقنية تنظيم مستخدمة لمنع مشكله ال overfitting في CNN. وهو اسلوب قائم علي اسقاط بشكل عشوائي العقد (Nodes) في الشبكة أثناء التدريب لمنع النموذج من الاعتماد بشكل كبير على Nodes دون الاخري.
4 . Batch normalization:
هي تقنية تساعد على استقرار توزيع المدخلات على كل طبقة في شبكة CNN.
من خلال عمل normalizing لمدخلات الشبكه ، يمكن أن يؤدي ال Batch إلى تقليل وقت التدريب وتحسين دقة النموذج، وهو اسلوب يستخدم بقوه في حاله التعامل مع بيانات ضخمه او في حاله كانت امكانيات الجهاز الذي تعمل عليه ضعيفه.
5 . Learning rate scheduling:
جدولة معدل التعلم هي تقنية تقوم بضبط معدل التعلم أثناء التدريب. يمكن أن يساعد ذلك في تحسين سرعة التقارب ومنع ال overfitting.
6 . Data augmentation:
زيادة البيانات هي تقنية تستخدم لزيادة حجم مجموعة بيانات التدريب عن طريق إنشاء بيانات تركيبية. يمكن أن يساعد هذا في منع فرط التجهيز (overfitting) وتحسين دقة النموذج.
7 . Model architecture optimization:
يمكن أن يكون لهندسه بني الشبكات لل CNN تأثير كبير على أدائها. من خلال تجربة بنى الشبكات المختلفة ، يمكنك العثور على البنية المثالية لمهمتك المحددة.
وهو بوابه لعلم كبير يسمي اختصارا بال (NAS).
كل هذا يعد من التقنيات المشهور والمستخدمه لرفع كفاءه الشبكات الاصطناعيه ولكن هناك العديد من الاساليب الاخري والتي لا تقل اهميه عن ما تم ذكره سنتطرق اليه فيما بعد ان شاء الله.
#منقول
By: @CodeProgrammer ⭐️
من تلك الاساليب ما يلي:
1 . Gradient descent optimization:
هو خوارزمية تحسين تستخدم لتقليل داله الخسارة في CNN.
كما ان تلك الخوارزميه بها العديد من النقاط الهامه التي تتشابك معها وهي
Stochastic Gradient Descent (SGD), Adaptive Moment Estimation (Adam), and Root Mean Square Propagation (RMSprop).
2 . Weight initialization:
او كما يعرف بالعربيه بتهيئه الاوزان، يمكن أن يكون لتهيئة الأوزان في شبكة CNN تأثير كبير على أدائها. يمكن أن يؤدي التهيئة الصحيحة للأوزان إلى منع النموذج من التعثر في حل دون المستوى الأمثل (Not the Optimal Solution)وتحسين سرعة التقارب.
ومن اجل تطبيق هذا الاسلوب هناك العديد من الطرق اتباعها مثل استخدام خوارزميات التحسين الحديثه وغيرها والتي سنتطرق اليها فيما بعد.
3 . Dropout regularization:
التسرب هو تقنية تنظيم مستخدمة لمنع مشكله ال overfitting في CNN. وهو اسلوب قائم علي اسقاط بشكل عشوائي العقد (Nodes) في الشبكة أثناء التدريب لمنع النموذج من الاعتماد بشكل كبير على Nodes دون الاخري.
4 . Batch normalization:
هي تقنية تساعد على استقرار توزيع المدخلات على كل طبقة في شبكة CNN.
من خلال عمل normalizing لمدخلات الشبكه ، يمكن أن يؤدي ال Batch إلى تقليل وقت التدريب وتحسين دقة النموذج، وهو اسلوب يستخدم بقوه في حاله التعامل مع بيانات ضخمه او في حاله كانت امكانيات الجهاز الذي تعمل عليه ضعيفه.
5 . Learning rate scheduling:
جدولة معدل التعلم هي تقنية تقوم بضبط معدل التعلم أثناء التدريب. يمكن أن يساعد ذلك في تحسين سرعة التقارب ومنع ال overfitting.
6 . Data augmentation:
زيادة البيانات هي تقنية تستخدم لزيادة حجم مجموعة بيانات التدريب عن طريق إنشاء بيانات تركيبية. يمكن أن يساعد هذا في منع فرط التجهيز (overfitting) وتحسين دقة النموذج.
7 . Model architecture optimization:
يمكن أن يكون لهندسه بني الشبكات لل CNN تأثير كبير على أدائها. من خلال تجربة بنى الشبكات المختلفة ، يمكنك العثور على البنية المثالية لمهمتك المحددة.
وهو بوابه لعلم كبير يسمي اختصارا بال (NAS).
كل هذا يعد من التقنيات المشهور والمستخدمه لرفع كفاءه الشبكات الاصطناعيه ولكن هناك العديد من الاساليب الاخري والتي لا تقل اهميه عن ما تم ذكره سنتطرق اليه فيما بعد ان شاء الله.
#منقول
By: @CodeProgrammer ⭐️
Python | Machine Learning | Coding | R
Photo
اليوم سنتحدث عن تصميم شبكه عصبيه اصطناعيه لحل بعض المشكلات في البيانات عند العمل علي احد مشاريع التعلم العميق الخاصه بال image.
عند العمل علي ال image في معظم الاحالات تكون تلك الصور تعاني من بعض المشكلات مثل الضوضاء البسيطه او ظهور علامات مثل المطر في الصوره او ان الصوره بها اماكن معتمه تحتاج الي التوضيح/التفتيح قليلا.
تلك هي مجموعه من المشكلات الشائعه، الحل في هذا الموقف كما هو معلوم هو استخدام معالجه الصور للتخلص من تلك المشكلات واحده تلو الاخري، ولكن في حاله تعذر تطبيق معالجه البيانات (التي تمت الاشاره اليها) وحل المشكلات تباعا لاي سبب من الاسباب.
هنا ياتي الحل، الصوره المرفقه توضح شبكه عصبيه CNN مكونه من ثلاثه اجزاء قمت بتصميمها لمساعدتي.
-- ملاحظه:
تلك الشبكه الاصطناعيه مصممه خصيصا لاستقبال بيانات بمعالجه ابتدائيه (مثل توحيد حجم الصور، ضبط طبقات الصوره وهكذا)وليست بيانات خام.
وهدف تلك الشبكه هو مساعده نفسها في ضبط البيانات داخلها وهذا يعد توفيرا للوقت والمصادر.
الجزء الاول: هو عباره عن شبكه مكونه من العديد من الطبقات الملتفه والمتصله معا بطريقه تعطي قوه للشبكه وقدره علي تنقيه الصور من العديد من المشكلات، فتلك الوصلات بين الطبقات تعمل علي تفتيح الاماكن المعتمه من الصوره بالاضافه الي ازاله الضوضاء من الصوره عن طريق تطبيق العديد من المرشحات وبالتالي فصل البيكسلز الغير مرغوب فيها عن الصوره.
وفي نهايه تلك الطبقه تكون لدينا صوره محسنه عن الصوره القديمه، والصوره جاهز للدخول الي الجزء الثاني.
الجزء الثاني: هو عباره عن pre-trained model من نوع EfficientNetB7 مهمته الاساسيه في تلك الشبكه هو تقليل overfitting واستخراج الميزات المهمه في الصوره المحسنه.
في نهايه تلك المرحله يكون لدينا مجموعه من ال features المعدله والجاهزه للدخول الي fully connected layers.
الجزء الثالث: وهو عباره عن مجموعه من الطبقات ال Dense من اجل الحصول علي النتائج المطلوبه.
وفيما بعد ان شاء الله سنتحدث اكثر عن المرحله الاولي لان بها العديد من التفاصيل.
#منقول
عند العمل علي ال image في معظم الاحالات تكون تلك الصور تعاني من بعض المشكلات مثل الضوضاء البسيطه او ظهور علامات مثل المطر في الصوره او ان الصوره بها اماكن معتمه تحتاج الي التوضيح/التفتيح قليلا.
تلك هي مجموعه من المشكلات الشائعه، الحل في هذا الموقف كما هو معلوم هو استخدام معالجه الصور للتخلص من تلك المشكلات واحده تلو الاخري، ولكن في حاله تعذر تطبيق معالجه البيانات (التي تمت الاشاره اليها) وحل المشكلات تباعا لاي سبب من الاسباب.
هنا ياتي الحل، الصوره المرفقه توضح شبكه عصبيه CNN مكونه من ثلاثه اجزاء قمت بتصميمها لمساعدتي.
-- ملاحظه:
تلك الشبكه الاصطناعيه مصممه خصيصا لاستقبال بيانات بمعالجه ابتدائيه (مثل توحيد حجم الصور، ضبط طبقات الصوره وهكذا)وليست بيانات خام.
وهدف تلك الشبكه هو مساعده نفسها في ضبط البيانات داخلها وهذا يعد توفيرا للوقت والمصادر.
الجزء الاول: هو عباره عن شبكه مكونه من العديد من الطبقات الملتفه والمتصله معا بطريقه تعطي قوه للشبكه وقدره علي تنقيه الصور من العديد من المشكلات، فتلك الوصلات بين الطبقات تعمل علي تفتيح الاماكن المعتمه من الصوره بالاضافه الي ازاله الضوضاء من الصوره عن طريق تطبيق العديد من المرشحات وبالتالي فصل البيكسلز الغير مرغوب فيها عن الصوره.
وفي نهايه تلك الطبقه تكون لدينا صوره محسنه عن الصوره القديمه، والصوره جاهز للدخول الي الجزء الثاني.
الجزء الثاني: هو عباره عن pre-trained model من نوع EfficientNetB7 مهمته الاساسيه في تلك الشبكه هو تقليل overfitting واستخراج الميزات المهمه في الصوره المحسنه.
في نهايه تلك المرحله يكون لدينا مجموعه من ال features المعدله والجاهزه للدخول الي fully connected layers.
الجزء الثالث: وهو عباره عن مجموعه من الطبقات ال Dense من اجل الحصول علي النتائج المطلوبه.
وفيما بعد ان شاء الله سنتحدث اكثر عن المرحله الاولي لان بها العديد من التفاصيل.
#منقول