Forwarded from Deleted Account
سؤال/ ما هو الفرق بين cin و getline مع كتابة برنامج لكل واحد و الoutput لكل منهما لتبيين السبب
int main()
{
string x;
cout<<"enter x"<<endl;
cin>>x;
cout<<"x = "<<x<<endl;
}
بال output
يطلب منك ادخال قيمة x مثلا
enter x
Khaleel Hussein
راح تطلع النة
x=khaleel
ليش؟ لان cin تطبع الكلام لحد الفراغ(سبييس) و اي شي بعد الفراغ ما تكتبة اذا تشوفون من ادخلت قيمة x خليت فراغ بين اسم khaleel و hussien فلذلك طبع الك لحد الفراغ
هذا بالcin 👆
بال getline 👇
int main()
{
string x;
cout<<"enter x"<<endl;
getline(cin,x);
cout<<"x = "<<x<<endl;
}
بال output
enter x
Khaleel Hussein
x = khaleel hussien
هنا لان بال getline طبع الك كلشي كامل و حسب حتى السبيس (الفراغ) فهذا الفرق بين getline و cin
ركزوا على هذا السؤال مهم
التابع getline :
لنفرض أنك ستقوم بكتابة كـود يعـمل كمحـرر نصـوص ، فحينهـا يجـب عليـك
التعامـل مــع الأحـرف 'n\' كمـا رأينــا فــإن التــابع ( )get يقـوم بالتعامـل مــع
المسافات ولكن ماذا لو أردت أنت التعامل مع الأسطر وليس الجمل فحسب.
يوفر لك الكائن cin التابع getline الـذي يتعامـل مـع هـذه المشـكلة. وطريقـة
عـمله هـي نفس طريقة عـمل التابع get وحتى تجعل التابعين يقومـان بحـل
المشكلة المطروحـة (مشكلة الأسطر) فعليك فقط أن تحدد ما هــو البـارامتر
الثالث أو الوسيط الثالث وحينها ستحل المشكلة
int main()
{
string x;
cout<<"enter x"<<endl;
cin>>x;
cout<<"x = "<<x<<endl;
}
بال output
يطلب منك ادخال قيمة x مثلا
enter x
Khaleel Hussein
راح تطلع النة
x=khaleel
ليش؟ لان cin تطبع الكلام لحد الفراغ(سبييس) و اي شي بعد الفراغ ما تكتبة اذا تشوفون من ادخلت قيمة x خليت فراغ بين اسم khaleel و hussien فلذلك طبع الك لحد الفراغ
هذا بالcin 👆
بال getline 👇
int main()
{
string x;
cout<<"enter x"<<endl;
getline(cin,x);
cout<<"x = "<<x<<endl;
}
بال output
enter x
Khaleel Hussein
x = khaleel hussien
هنا لان بال getline طبع الك كلشي كامل و حسب حتى السبيس (الفراغ) فهذا الفرق بين getline و cin
ركزوا على هذا السؤال مهم
التابع getline :
لنفرض أنك ستقوم بكتابة كـود يعـمل كمحـرر نصـوص ، فحينهـا يجـب عليـك
التعامـل مــع الأحـرف 'n\' كمـا رأينــا فــإن التــابع ( )get يقـوم بالتعامـل مــع
المسافات ولكن ماذا لو أردت أنت التعامل مع الأسطر وليس الجمل فحسب.
يوفر لك الكائن cin التابع getline الـذي يتعامـل مـع هـذه المشـكلة. وطريقـة
عـمله هـي نفس طريقة عـمل التابع get وحتى تجعل التابعين يقومـان بحـل
المشكلة المطروحـة (مشكلة الأسطر) فعليك فقط أن تحدد ما هــو البـارامتر
الثالث أو الوسيط الثالث وحينها ستحل المشكلة
Forwarded from Deleted Account
ان شاء الله سيتم بدأ دورة السي شارب من اليوم الساعه السابعه وسيكون بنفس التوقيت كل يوم وسيتم وضع تمارين بعد كل درس ونريد التفاعل بالنسبه لمنصة العمل (البيئة) الي قادر يثبت visual studio او الي هي عنده يشتغل بها او به برنامج على الاندرويد online ينزله ويتابعنا خطوة بخطوة وان شاء الله تعم الفائدة
رابط البرنامج
https://play.google.com/store/apps/details?id=com.radinc.csharpshell
رابط البرنامج
https://play.google.com/store/apps/details?id=com.radinc.csharpshell
Google Play
C# Shell .NET IDE - Apps on Google Play
Compile and learn C# on the go using the Mono CLR under Android
بدايه مبرمج pinned «ان شاء الله سيتم بدأ دورة السي شارب من اليوم الساعه السابعه وسيكون بنفس التوقيت كل يوم وسيتم وضع تمارين بعد كل درس ونريد التفاعل بالنسبه لمنصة العمل (البيئة) الي قادر يثبت visual studio او الي هي عنده يشتغل بها او به برنامج على الاندرويد online ينزله ويتابعنا…»
Forwarded from Deleted Account
الدرس الثاني
https://youtu.be/eJWqDBHAayA
https://youtu.be/eJWqDBHAayA
YouTube
2. المتغيرات، الثوابت، التعليقات، الإدخال والإخراج - الجزء الأول
أكاديمية المبرمجين العرب:
http://www.mobarmijoun.com/
http://www.mobarmijoun.com/
Forwarded from Deleted Account
الدرس الثالث
https://youtu.be/5p2-V3vziws
https://youtu.be/5p2-V3vziws
YouTube
3. المتغيرات، الثوابت، التعليقات، الإدخال والإخراج - الجزء الثاني
أكاديمية المبرمجين العرب:
http://www.mobarmijoun.com/
http://www.mobarmijoun.com/
Forwarded from Deleted Account
التمارين
1-ما هو نوع البيانات الاتيه :
int,char,string,double
2-ما هو امر الطباعه على الشاشه ،وما هو امر الادخال ؟
3-كيف نعلق سطر برمجي وكيف نعلق عده اسطر ؟
1-ما هو نوع البيانات الاتيه :
int,char,string,double
2-ما هو امر الطباعه على الشاشه ،وما هو امر الادخال ؟
3-كيف نعلق سطر برمجي وكيف نعلق عده اسطر ؟
التمارين :
1-ما انواع الروابط ؟ومتى نستعمل كل نوع؟
2-ما الفرق بين اداة الربط && واداة الربط || ؟
3-عدد اشكال البنيه الشرطيه( if ) ثم اكتب جميع الحالات التي ذكرتها في مثال بسيط .
4-حول المثال السابق الى البنية الشرطيه swirch .
5- ما عمل break في الجملة الشرطية switch .
1-ما انواع الروابط ؟ومتى نستعمل كل نوع؟
2-ما الفرق بين اداة الربط && واداة الربط || ؟
3-عدد اشكال البنيه الشرطيه( if ) ثم اكتب جميع الحالات التي ذكرتها في مثال بسيط .
4-حول المثال السابق الى البنية الشرطيه swirch .
5- ما عمل break في الجملة الشرطية switch .
مشاهدة "7. البنية التكرارية - استخدام for" على YouTube
https://youtu.be/nGVQMsf0IDw
https://youtu.be/nGVQMsf0IDw
YouTube
7. البنية التكرارية - استخدام for
أكاديمية المبرمجين العرب:
http://www.mobarmijoun.com/
http://www.mobarmijoun.com/
مستقبل الإنسانية بلا أخلاق
هناك عدة أفلام سينمائية تتحدث عن سيطرة الآلة على الإنسان، وأشهرها طبعا فيلم “ماتريكس”، والذي جسد احتقار الآلة الذكية للإنسان واستخدامه لأغراضها. في 1999 ـ لما ظهر الفيلم ـ كان هذا مجرد خيال علمي بحت، ولكننا اليوم مع نضوج مفاهيم الذكاء الاصطناعي، والتي تقوم على “التعلم العميق” (Deep Learning) لدى الأنظمة الذكية، وقدرتها على التطوير الذاتي، فإن هذا الخيال العلمي بدأ يتحول تدريجيا إلى واقع محتمل.
ستستغرب عندما تقرأ مقولات لشخصيات مثل ستيفين هوكينغ، وبيل غيتس، وإيلون ماسك والتي تحذر من ذلك، ومن ذلك ما قاله ستيفين هوكينغ، أحد أعظم فيزيائي القرن، بأن “التطوير الكامل للذكاء الاصطناعي قد يعني نهاية الجنس البشري”.
ولكن بعيدا عن هذه النظرة المستقبلية البعيدة نسبيا، تواجه شركات التقنية اليوم تحديا أساسيا مرتبطا بـ”أخلاقيات الذكاء الاصطناعي”، وذلك تحت ضغط العديد من المؤسسات الأكاديمية ومراكز الأبحاث المتخصصة في قضايا الأخلاق، وتحت ضغط كبار المبرمجين الذين بدأوا يدركون أن قراراتهم اليومية حول كيفية برمجة أنظمة الذكاء الاصطناعي قد يكون لها أثر كبير على الإنسانية في المستقبل.
الآلة تطور نفسها بنفسها من خلال ارتباطها بكمية هائلة من “البيانات الضخمة” التي تم جمعها من مصادر مختلفة
هذا ما دفع شركة مثل غوغل لتؤسس مجلسا أعلى خاصا بالأخلاقيات، ودفع فيسبوك لتؤسس مركز أبحاث متخصص في هذا الشأن في ألمانيا، بينما ترعى أمازون أبحاثا حول التعامل العادل في أنظمة الذكاء الاصطناعي، وجعل ميكروسوفت تعلن عن وثيقة المبادئ والأخلاق في تطويرها للذكاء الاصطناعي.
حتى أشرح الموضوع قليلا، تخيل معي التالي: خلال سنوات قليلة قادمة ستتمكن الآلة أن تحل محل الجندي في الحرب، والطبيب في المستشفى، والمعالج النفسي، وشرطي السير، وممرضة كبار السن. كل هؤلاء اليوم يتعاملون بناء على أطر أخلاقية معينة تحكم سلوكهم، ويتم محاسبتهم على أساسها. من سيضمن لنا أن الآلة ستحمل نفس المبادئ والأخلاق؟ إذا انطلقت طائرة بدون طيار مسيرة على أسس الذكاء الاصطناعي (وليس التحكم عن بعد كما هو الحال الآن) وقتلت مجموعة من الأطفال لأن الكود البرمجي فيها جعلها تفعل ذلك، من سيتحمل مسؤولية ذلك؟ إذا قام المعالج النفسي الآلي بإرشاد المريض لمجموعة من التصرفات اللاأخلاقية لمعالجة مشكلته، من سنلوم بالضبط؟
الجواب السهل هو أن نلوم الشركة التقنية، والتي بدورها ستلوم فريق البرمجة، ولكن الحقيقة أن التعلم الذاتي يجعل ذلك صعبا جدا، لأن الآلة تطور نفسها بنفسها من خلال ارتباطها بكمية هائلة من “البيانات الضخمة” التي تم جمعها من مصادر مختلفة وعبر فترات زمنية طويلة، وهنا يصبح دور المبرمج محدودا في تحمل المسؤولية.
هذا المثال وغيره من أمثلة كثيرة مطروحة تجعل هذه القضية تحت الضوء لدى معظم مراكز الأبحاث المتخصصة في مجال الأخلاقيات عموما، ولكن ما يتم عمله حتى الآن محدود جدا ولا يتعدى بعض الأمور الشكلية فقط. حتى الجهود التي تبذلها الشركات التقنية الضخمة هي ـ كما يقول بعض النقاد ـ مجرد معالجة ظاهرية وإعلامية للموضوع، وتنتهي في الغالب بكتابة تحذير بخط صغير جدا يوافق عليه كل مستخدم بشكل تلقائي دون أن تكون هناك جهود حقيقية وعميقة لمعالجة هذه المشكلات.
وماذا عن المؤسسات التشريعية في الحكومات مثل الكونغرس الأميركي.. لماذا لا يضعون التشريعات التي تضغط على الشركات التقنية لمراعاة الأخلاق في ما يتم برمجته؟ الجواب باختصار لأن معظم الشركات التقنية تحتفظ بخطط التطوير لديها بشكل سري جدا، وهناك فهم محدود جدا لدى المشرعين والمؤسسات القانونية لما يحصل، بسبب تعقيده، وبالتالي يصعب عليهم وضع الأطر القانونية لمعالجة ذلك. وباستثناء حالات بسيطة مثل ما حصل في أبريل الماضي عندما تمت معاقبة فيسبوك لما سمحت بتوجيه إعلاناتها لعرقية معينة، وهو ما يمثل مخالفة صريحة لروح القانون الأميركي، فإن هناك فجوة ضخمة بين التشريعات وبين الجوانب الأخلاقية ضمن أسوار الشركات التقنية العتيدة.
وإذا كان الأمر في الولايات المتحدة وأوروبا فيه الكثير من الأمل بأن يتم معالجة هذا الموضوع بشكل أو بآخر خلال السنوات القادمة، فإن الأمر مختلف في دول أخرى أنظمتها ديكتاتورية ولا تهتم بحقوق الإنسان بشكل عام، وفي نفس الوقت تشهد تطورا سريعا ومذهلا في مجالات الذكاء الاصطناعي.
تواجه شركات التقنية اليوم تحديا أساسيا مرتبطا بـ”أخلاقيات الذكاء الاصطناعي
وهذا يعني أنه في ظل غياب جهد عالمي يرعاه المجتمع الدولي فإن التحكم في هذا المجال سيكون من أكبر التحديات التي ستواجهها الإنسانية خلال العقود القادمة. بل أزيد على ذلك، أن الدول المستهلكة للتقنية ربما يكون لديها الحافز الأكبر لمعالجة هذه الموضوعات حتى لا تصبح مناطق للتجارب غير المقننة للشركات التي تجمع البيانات وتعالجها وتستخدمها لتعليم الآلة ما تفعله في المستقبل، ثم تصدر لنا الآلات التي نكتشف مشكلاتها في المستقب
هناك عدة أفلام سينمائية تتحدث عن سيطرة الآلة على الإنسان، وأشهرها طبعا فيلم “ماتريكس”، والذي جسد احتقار الآلة الذكية للإنسان واستخدامه لأغراضها. في 1999 ـ لما ظهر الفيلم ـ كان هذا مجرد خيال علمي بحت، ولكننا اليوم مع نضوج مفاهيم الذكاء الاصطناعي، والتي تقوم على “التعلم العميق” (Deep Learning) لدى الأنظمة الذكية، وقدرتها على التطوير الذاتي، فإن هذا الخيال العلمي بدأ يتحول تدريجيا إلى واقع محتمل.
ستستغرب عندما تقرأ مقولات لشخصيات مثل ستيفين هوكينغ، وبيل غيتس، وإيلون ماسك والتي تحذر من ذلك، ومن ذلك ما قاله ستيفين هوكينغ، أحد أعظم فيزيائي القرن، بأن “التطوير الكامل للذكاء الاصطناعي قد يعني نهاية الجنس البشري”.
ولكن بعيدا عن هذه النظرة المستقبلية البعيدة نسبيا، تواجه شركات التقنية اليوم تحديا أساسيا مرتبطا بـ”أخلاقيات الذكاء الاصطناعي”، وذلك تحت ضغط العديد من المؤسسات الأكاديمية ومراكز الأبحاث المتخصصة في قضايا الأخلاق، وتحت ضغط كبار المبرمجين الذين بدأوا يدركون أن قراراتهم اليومية حول كيفية برمجة أنظمة الذكاء الاصطناعي قد يكون لها أثر كبير على الإنسانية في المستقبل.
الآلة تطور نفسها بنفسها من خلال ارتباطها بكمية هائلة من “البيانات الضخمة” التي تم جمعها من مصادر مختلفة
هذا ما دفع شركة مثل غوغل لتؤسس مجلسا أعلى خاصا بالأخلاقيات، ودفع فيسبوك لتؤسس مركز أبحاث متخصص في هذا الشأن في ألمانيا، بينما ترعى أمازون أبحاثا حول التعامل العادل في أنظمة الذكاء الاصطناعي، وجعل ميكروسوفت تعلن عن وثيقة المبادئ والأخلاق في تطويرها للذكاء الاصطناعي.
حتى أشرح الموضوع قليلا، تخيل معي التالي: خلال سنوات قليلة قادمة ستتمكن الآلة أن تحل محل الجندي في الحرب، والطبيب في المستشفى، والمعالج النفسي، وشرطي السير، وممرضة كبار السن. كل هؤلاء اليوم يتعاملون بناء على أطر أخلاقية معينة تحكم سلوكهم، ويتم محاسبتهم على أساسها. من سيضمن لنا أن الآلة ستحمل نفس المبادئ والأخلاق؟ إذا انطلقت طائرة بدون طيار مسيرة على أسس الذكاء الاصطناعي (وليس التحكم عن بعد كما هو الحال الآن) وقتلت مجموعة من الأطفال لأن الكود البرمجي فيها جعلها تفعل ذلك، من سيتحمل مسؤولية ذلك؟ إذا قام المعالج النفسي الآلي بإرشاد المريض لمجموعة من التصرفات اللاأخلاقية لمعالجة مشكلته، من سنلوم بالضبط؟
الجواب السهل هو أن نلوم الشركة التقنية، والتي بدورها ستلوم فريق البرمجة، ولكن الحقيقة أن التعلم الذاتي يجعل ذلك صعبا جدا، لأن الآلة تطور نفسها بنفسها من خلال ارتباطها بكمية هائلة من “البيانات الضخمة” التي تم جمعها من مصادر مختلفة وعبر فترات زمنية طويلة، وهنا يصبح دور المبرمج محدودا في تحمل المسؤولية.
هذا المثال وغيره من أمثلة كثيرة مطروحة تجعل هذه القضية تحت الضوء لدى معظم مراكز الأبحاث المتخصصة في مجال الأخلاقيات عموما، ولكن ما يتم عمله حتى الآن محدود جدا ولا يتعدى بعض الأمور الشكلية فقط. حتى الجهود التي تبذلها الشركات التقنية الضخمة هي ـ كما يقول بعض النقاد ـ مجرد معالجة ظاهرية وإعلامية للموضوع، وتنتهي في الغالب بكتابة تحذير بخط صغير جدا يوافق عليه كل مستخدم بشكل تلقائي دون أن تكون هناك جهود حقيقية وعميقة لمعالجة هذه المشكلات.
وماذا عن المؤسسات التشريعية في الحكومات مثل الكونغرس الأميركي.. لماذا لا يضعون التشريعات التي تضغط على الشركات التقنية لمراعاة الأخلاق في ما يتم برمجته؟ الجواب باختصار لأن معظم الشركات التقنية تحتفظ بخطط التطوير لديها بشكل سري جدا، وهناك فهم محدود جدا لدى المشرعين والمؤسسات القانونية لما يحصل، بسبب تعقيده، وبالتالي يصعب عليهم وضع الأطر القانونية لمعالجة ذلك. وباستثناء حالات بسيطة مثل ما حصل في أبريل الماضي عندما تمت معاقبة فيسبوك لما سمحت بتوجيه إعلاناتها لعرقية معينة، وهو ما يمثل مخالفة صريحة لروح القانون الأميركي، فإن هناك فجوة ضخمة بين التشريعات وبين الجوانب الأخلاقية ضمن أسوار الشركات التقنية العتيدة.
وإذا كان الأمر في الولايات المتحدة وأوروبا فيه الكثير من الأمل بأن يتم معالجة هذا الموضوع بشكل أو بآخر خلال السنوات القادمة، فإن الأمر مختلف في دول أخرى أنظمتها ديكتاتورية ولا تهتم بحقوق الإنسان بشكل عام، وفي نفس الوقت تشهد تطورا سريعا ومذهلا في مجالات الذكاء الاصطناعي.
تواجه شركات التقنية اليوم تحديا أساسيا مرتبطا بـ”أخلاقيات الذكاء الاصطناعي
وهذا يعني أنه في ظل غياب جهد عالمي يرعاه المجتمع الدولي فإن التحكم في هذا المجال سيكون من أكبر التحديات التي ستواجهها الإنسانية خلال العقود القادمة. بل أزيد على ذلك، أن الدول المستهلكة للتقنية ربما يكون لديها الحافز الأكبر لمعالجة هذه الموضوعات حتى لا تصبح مناطق للتجارب غير المقننة للشركات التي تجمع البيانات وتعالجها وتستخدمها لتعليم الآلة ما تفعله في المستقبل، ثم تصدر لنا الآلات التي نكتشف مشكلاتها في المستقب