تقرير الخبراء: اقتصاديات الكفاءة في نماذج الذكاء الاصطناعي صغيرة الحجم— Phi-1.5 Mini، والوكلاء المحليون، وثورة $7,800 بناءً على التطورات الحديثة في مجال النماذج اللغوية الكبيرة (LLMs) ونماذج الرؤية واللغة (VLMs)، يمثل عام 2024 تحولاً جذرياً نحو الكفاءة التشغيلية وهندسة البيانات. يركز هذا التقرير التحليلي على حالتين بارزتين تجسدان هذا التحول: نموذج Phi-1.5 Mini، الذي يمثل ثورة في الأداء مقابل التكلفة والحجم، وإطلاق نموذج Jan v2 VLM، الذي يعيد تعريف إمكانية الوكلاء المستقلين المستقرين على الأجهزة المحلية (On-Device Agents). القسم الأول: الملخص التنفيذي وإعادة تعريف الكفاءة في الذكاء الاصطناعي 1.1. التحول البارادايمي في حجم النماذج: قوة الأداء المضغوط شهد المجال تحولاً حاسماً من النماذج الضخمة جداً (Hyperscale Models) إلى النماذج اللغوية صغيرة الحجم فائقة الكفاءة (sLLMs)، مع التركيز المتزايد على جودة البيانات المنسقة بدلاً من الحجم الخام للمعلمات. يمثل نموذج Phi-1.5 Mini، الذي يحتوي على 1.3 مليار معلمة [1]، قفزة نوعية في هذا الاتجاه. فقد أظهر النموذج أداءً شبه رائد (near state-of-the-art) [1] مقارنةً بنماذج تتجاوز 10 مليارات معلمة، خصوصاً في مقاييس اختبارات المنطق والفهم اللغوي والحس السليم.[1] تُعد الإنجازات المحققة في هذا السياق بمثابة مؤشرات لثورة كبرى في هيكلة الذكاء الاصطناعي، مرتكزة على ثلاثة أبعاد أساسية للكفاءة: • الكفاءة المعرفية: تحقيق أداء عالٍ في اختبارات معقدة، بما في ذلك التفوق على نماذج مصممة خصيصاً للسببية (مثل DeepSeek R1). • الكفاءة التكلفية: تم تدريب نموذج Phi-1.5 بالكامل في 1,500 ساعة GPU فقط [2]، وبتكلفة تقديرية لا تتجاوز 7,800 دولار أمريكي. • الكفاءة التشغيلية: إمكانية النشر المحلي (On-Device Inference) الفوري بفضل تقنيات التكميم، مما يقلل حجم الملف إلى أقل من 2 غيغابايت (باستخدام تنسيق GGUF).[3] إن تفوق نموذج مدرب على بيانات منظمة (Phi-1.5) على نموذج مُحسّن خصيصًا للسببية عبر التعلم المعزز (DeepSeek R1 [4, 5]) يشير إلى مفاضلة معمارية حاسمة. إن الكفاءة المكتسبة من خلال هندسة البيانات عالية الجودة والمنسقة قد تكون في الوقت الحالي أكثر استقرارًا وفعالية في اجتياز المقاييس المعيارية من السببية الناشئة ذاتياً التي تعتمد على التعلم المعزز. هذا التحول يؤكد أن الاستثمار في جودة البنية المعرفية للمعلومات التدريبية، بدلاً من مجرد زيادة حجم المعلمات، هو المحرك الأساسي لتقليل تكلفة الدخول في البحث المتقدم، وبالتالي تسريع عملية دمقرطة الابتكار. القسم الثاني: تحول بارادايم التدريب: Phi-1.5 Mini ومنهجية البيانات الاصطناعية 2.1. المواصفات المعمارية والأداء مقابل الحجم نموذج Phi-1.5 هو نموذج Transformer (Decoder-only) يحتوي على 1.3 مليار معلمة.[1] يتميز النموذج بأنه لم يتم ضبطه (fine-tune) لاتباع التعليمات أو من خلال التعلم المعزز من التغذية الراجعة البشرية (RLHF).[1] الغرض الأساسي من إطلاق هذا النموذج مفتوح المصدر هو توفير أداة غير مقيدة للمجتمع البحثي لاستكشاف تحديات سلامة النماذج اللغوية. تشمل هذه التحديات الحيوية: تقليل السمية، فهم التحيزات المجتمعية، وتعزيز قابلية التحكم.[1] على الرغم من حجمه الصغير، فإن Phi-1.5 قادر على مهام متنوعة تشمل كتابة الشعر، صياغة رسائل البريد الإلكتروني، تلخيص النصوص، وإنشاء شفرات Python.[1] 2.2. استراتيجية "الكتب المدرسية هي كل ما تحتاجه": البيانات الاصطناعية كبديل للويب يعود الأداء المتميز لنموذج Phi-1.5 إلى منهجية تدريبه المبتكرة، والتي تركز على "نصوص تعليمية" عالية الجودة. تم تدريب النموذج باستخدام مصادر بيانات Phi-1 الأصلية، ولكن مع تعزيز حاسم من خلال مصدر بيانات جديد يتكون من نصوص تركيبية لغوية (NLP synthetic texts).[1] هذه المنهجية توفر دليلاً قوياً على أن توليد البيانات الاصطناعية المنسقة بعناية يمكن أن يكون بديلاً قابلاً للتطبيق وفعالاً لعمليات الزحف الشبكي واسعة النطاق (Large-Scale Web Crawling).[2] على سبيل المثال، في تطوير نموذج Phi-1 السابق، أدى استخدام مجموعة بيانات "CodeExercises" التي تتكون من مشاكل برمجية وحلولها (180 مليون رمز) إلى تعزيز أداء HumanEval من 29% إلى 51% عند استخدامها في الضبط الدقيق بعد التدريب المسبق على بيانات تشبه الكتب المدرسية.[6] هذا يثبت أن التركيز على الجودة الهيكلية للمعرفة المكتسبة يسمح للنماذج الصغيرة بتعلم كيفية الاستدلال وحل المشكلات من الصفر بكفاءة عالية.[6] 2.3. استراتيجية السلامة المُضمنة (Intrinsic Safety) بدون RLHF من الميزات الهندسية الهامة في Phi-1.5 هي استراتيجية السلامة المُضمنة، حيث تم استبعاد مصادر بيانات الزحف الويب العامة، مثل Common-crawl، من عملية التدريب.[1] هذا النهج يمنع التعرض المباشر للمحتوى الضار المحتمل، مما يعزز سلامة النموذج بنيوياً دون الحاجة إلى تطبيق التعلم المعزز من التغذية الراجعة البشرية (RLHF).[1] من الناحية الاقتصادية والتشغيلية، يتم تحويل تحدي السلامة من مرحلة الضبط المكلفة بعد التدريب (Post-training alignment) إلى مرحلة هندسة البيانات الأولية (Pre-training Data Engineering). هذا لا يقلل فقط من النفقات التشغيلية المرتبطة بـ RLHF، ولكنه يجعل النماذج أكثر أماناً نسبياً في البنية. ومع ذلك، يقر الباحثون بأن النموذج لا يزال عرضة لتوليد محتوى ضار، مما يؤكد أن السلامة الكاملة تتطلب المزيد من البحث على هذه النماذج التي تعتمد على البيانات الاصطناعية.[1] القسم الثالث: تحليل الاقتصاديات الرقمية: التحقق من تكلفة الـ 7,800 دولار ودمقرطة الذكاء الاصطناعي 3.1. تحليل الكفاءة الرأسمالية: التحقق من تكلفة الـ 7,800 دولار أحد الإنجازات الأكثر إثارة للإعجاب في Phi-1.5 هو التكلفة المنخفضة بشكل استثنائي للتدريب. احتاج النموذج إلى 1,500 ساعة GPU فقط [2]، وهي نسبة ضئيلة مقارنة بـ 80,000 ساعة المطلوبة للنماذج الأكبر. وقد أعلنت التقديرات الأولية أن التكلفة هي 7,800 دولار أمريكي. لتحليل هذا الرقم، يمكن استنتاج أن سعر الساعة الضمني لوحدة المعالجة الرسومية المستخدمة (على الأرجح A100) هو 5.20 دولار (7,800 دولار مقسومة على 1,500 ساعة). هذه القيمة تقع ضمن نطاق أسعار خدمات الحوسبة السحابية التقليدية. على سبيل المثال، تتراوح أسعار A100 GPU في خدمات السحابة الكبرى (AWS, Azure) بين 3.02 دولار و 4.22 دولار للساعة (عندما يتم حسابها كوحدة GPU واحدة داخل عقدة متعددة وحدات GPU).[7] ومع ذلك، فإن منصات الحوسبة السحابية الاقتصادية تقدم A100 بأسعار تبدأ من 0.78 دولار إلى 1.19 دولار للساعة.[7] المعلمة الكمية/القيمة المصدر/الملاحظة عدد المعلمات 1.3 مليار [1] إجمالي ساعات تدريب GPU (A100) 1,500 ساعة [2] التكلفة التقديرية المعلنة 7,800 دولار أمريكي (معطى في الاستعلام) متوسط تكلفة الساعة الضمني (المعلن) 5.20 دولار/ساعة (تحليل: 7800 دولار / 1500 ساعة) أدنى سعر A100 GPU ساعة (خدمات اقتصادية) 0.78 دولار/ساعة [7] دلالة التكلفة إمكانية تدريب النماذج الرائدة بميزانية صغيرة جداً، مما يسرع الابتكار البحثي. [2, 7] الاستنتاج المالي هو أن التكلفة المعلنة (7,800 دولار) هي تقدير متحفظ. إن القيمة الأهم هي تقليل الحاجة إلى ساعات الحوسبة بشكل كبير. هذا التخفيض في متطلبات الحوسبة يسمح للفرق البحثية بتدريب النماذج الرائدة بميزانية تقل عن 2,000 دولار إذا استخدمت منصات حوسبة اقتصادية، مما يفتح الأبواب أمام البحث المتقدم للمؤسسات ذات الموارد المحدودة.[2] 3.2. الآثار الاستراتيجية: تسريع دمقرطة الذكاء الاصطناعي إن انخفاض تكلفة التدريب يزيل الحاجز المالي لـ LLMs، مما يمثل تحولاً جذرياً في دمقرطة الذكاء الاصطناعي.[8] هذا يمكن الشركات الصغيرة، والشركات الناشئة، والباحثين المستقلين من الوصول إلى تكنولوجيا الذكاء الاصطناعي المتقدمة دون الحاجة إلى نفقات رأسمالية ضخمة على النماذج الاحتكارية أو البنية التحتية.[8] بدلاً من إنفاق ثروة على التدريب الأساسي، يمكن للمؤسسات الآن تركيز مواردها المالية على تطوير التطبيقات المتخصصة، والنشر، وتخصيص النماذج لحالات استخدام محددة (مثل خدمة العملاء، التعليم، والأتمتة).[9] هذا التمكين المالي يعزز الشمولية، حيث يساهم في بناء مشهد ذكاء اصطناعي أكثر إنصافاً لا يقتصر فيه الابتكار على حفنة من عمالقة التكنولوجيا.[8] القسم الرابع: نماذج السببية المتقدمة: مقارنة منهجيات التدريب (Phi-1.5 مقابل DeepSeek R1) 4.1. DeepSeek R1: معمارية السببية الناشئة ذاتياً تم تصميم DeepSeek R1 كنموذج استدلال متقدم (reasoning model) يهدف إلى التفوق في المهام المعقدة عبر الرياضيات والترميز واللغة.[10] يستخدم النموذج التعلم المعزز (RL) لتنمية قدرات السببية لديه، والتي يتم تعزيزها لاحقًا عن طريق الضبط الدقيق الخاضع للإشراف (SFT) لتحسين التماسك والقراءة.[10] الابتكار التقني الرئيسي في DeepSeek R1 هو استخدامه للتعلم المعزز المُوجه بالإجابة النهائية (Answer-Graded RL). هذا يعني أن النموذج لا يتلقى مكافأة إلا عندما تكون إجابته النهائية صحيحة.[4] هذا يحرر النموذج من تقليد سلاسل التفكير البشرية (human reasoning traces) [4]، مما يسمح له باختراع استراتيجيات سببية خاصة به يمكن أن تتجاوز الأمثلة البشرية. تشمل هذه الاستراتيجيات الناشئة التحقق الذاتي، والتفكير، وتغيير الاستراتيجية في منتصف الحل.[4] لتقليل التكلفة، يستخدم DeepSeek R1 تقنية Group Relative Policy Optimization (GRPO)، التي تقلل التكاليف وتحسن قابلية التوسع عن طريق الاستغناء عن الحاجة إلى نموذج ناقد (Critic Model) منفصل.[5] 4.2. تحليل التناقض: كيف يتفوق المنطق المنظم على السببية الناشئة؟ إن تفوق نموذج 1.3 مليار معلمة (Phi-1.5)، المدرب على بيانات منظمة، على نموذج مُكرّس للسببية المعقدة (DeepSeek R1) يمثل تحدياً مباشراً للفرضية القائلة بأن التعقيد المعماري أو الحجم ضروريان لتحقيق أداء متفوق في المنطق. هذا التناقض يمكن تفسيره من خلال طبيعة البيانات. إن المنطق المستخلص من البيانات التركيبية المنسقة في Phi-1.5 هو منطق "مُلقن" ومنظم بدقة، يتوافق بشكل مثالي مع نمط الأسئلة والأجوبة المحددة في المقاييس المعيارية. بينما أن قدرات السببية الناشئة ذاتياً في DeepSeek R1، على الرغم من أنها قد تكون أكثر مرونة وقدرة على التكيف في سيناريوهات العالم الحقيقي الجديدة (Zero-Shot Robustness)، ربما لا تتطابق بكفاءة مع النمط المحدد للمنطق المطلوب في الاختبارات الموحدة. بناءً على هذا، يجب على الفرق الهندسية إجراء مفاضلة معمارية: الاختيار بين السببية المبنية على التلقين المُنظَّم (Phi-1.5)، وهي فعالة التكلفة وعالية الأداء في المهام المحددة، مقابل السببية الناشئة ذاتياً (DeepSeek R1)، وهي مكلفة ولكنها قد تكون أكثر قدرة على اكتشاف مسارات غير بشرية جديدة للحل. القسم الخامس: النشر المحلي والوكلاء متعددي الخطوات (Jan v2 VLM) 5.1. تقنيات التكميم والوصول إلى الحوسبة الطرفية (Edge Computing) لتجسيد مفهوم دمقرطة الذكاء الاصطناعي، يجب أن تكون النماذج قابلة للتشغيل بكفاءة على الأجهزة الطرفية. هذا يتطلب تكميماً متقدماً لتقليل متطلبات الذاكرة إلى مستويات يمكن استيعابها بواسطة الذاكرة العشوائية (RAM) أو VRAM المنخفضة المتوفرة للمستهلك. يوفر تنسيق GGUF آلية التكميم اللازمة. تظهر إصدارات Phi-1.5 المكممة أحجاماً صغيرة جداً.[3] النسخة Q4_K_M، التي تحقق توازناً ممتازاً بين الجودة والكفاءة، تبلغ 0.92 غيغابايت فقط. حتى النسخة Q5_K_M، التي تقدم فقداناً منخفضاً جداً في الجودة، لا تتجاوز 1.06 غيغابايت.[3] هذه الأحجام القابلة للتشغيل محلياً تسمح بتشغيل النماذج على الحوسبة الطرفية، مما يلغي الحاجة إلى الاعتماد المستمر على البنية التحتية السحابية. Table 2: Technical Comparison of Local Deployment Requirements (Phi-1.5 GGUF) نسخة GGUF طريقة التكميم حجم الملف (غيغابايت) ملاحظة الجودة/الاستخدام الموصى به Q4_K_M.gguf Q4_K_M 0.92 GB توازن مثالي بين الأداء والكفاءة Q5_K_M.gguf Q5_K_M 1.06 GB فقدان جودة منخفض جداً - موصى به Q8_0.gguf Q8_0 1.51 GB أفضل جودة للتكميم، ضمن حد 2 غيغابايت 5.2. Jan v2 VLM: الاستقرار في المهام طويلة الأفق (Long-Horizon Tasks) يمثل إطلاق نموذج Jan v2 VLM، وهو نموذج رؤية ولغة (VLM) بحجم 8 مليارات معلمة، إنجازاً هاماً في مجال وكلاء الذكاء الاصطناعي المحليين. يتمثل التحدي الأكبر في الوكلاء في قدرتهم على تنفيذ سلسلة طويلة ومستقرة من الإجراءات المتتابعة في بيئات معقدة (مثل متصفحات الويب) دون فشل. لقد حقق إصدار Jan-v2-VL-high [11] استقراراً وظيفياً غير مسبوق، حيث تمكن من تنفيذ 49 خطوة متتابعة على مقياس "Long-Horizon Execution" دون حدوث خطأ.[11] هذه القفزة النوعية ضرورية لتعزيز متانة النظام. للمقارنة، تتوقف النماذج الأساسية الأخرى ذات الحجم المماثل، مثل Qwen3-VL-8B-Thinking، عند 5 خطوات، بينما تتوقف نماذج VLM الشائعة الأخرى عند 1-2 خطوة.[11] هذا الفارق يؤكد أن Jan v2 VLM قد حل مشكلة حرجة في موثوقية الوكلاء المحليين. Table 3: Jan v2 VLM: Stability Metrics for Long-Horizon Execution نموذج VLM عدد الخطوات المتتابعة المنفذة دون فشل (Long-Horizon Execution Benchmark) الاستقرار النسبي دلالة الإنجاز Jan-v2-VL-high 49 خطوة مرتفع جداً قفزة نوعية في متانة الوكيل المحلي [11] Jan-v2-VL-base (Qwen3-VL-8B-Thinking) 5 خطوات متوسط أداء النماذج الأساسية [11] نماذج VLM مشابهة الحجم 1 - 2 خطوة منخفض مؤشر على تحدي المهام المتتابعة 5.3. دلالات النشر المحلي للوكلاء إن القدرة المؤكدة لـ Jan v2 VLM على تنفيذ 49 خطوة متتابعة محلياً تعزز الثقة في بناء تطبيقات أتمتة معقدة دون الحاجة إلى الإشراف البشري المستمر أو الاتصال المستمر بالخوادم السحابية. هذا يفتح الباب أمام أنظمة الوكلاء التي يمكنها العمل في الخلفية بأمان وكفاءة على أجهزة المستخدمين. إن تقارب النماذج اللغوية عالية الكفاءة ومنخفضة التكلفة (مثل Phi-1.5) مع نماذج الوكلاء المستقرة محلياً (Jan v2 VLM) يُنهي الفرضية القائلة بأن الأنظمة الوكيلة المعقدة يجب أن تعتمد على خدمات الحوسبة السحابية. يتيح هذا التقارب بناء أنظمة ذكاء اصطناعي ذاتية متكاملة (Full AI Agent Systems) تعمل بالكامل على الأجهزة الطرفية، مما يعزز الخصوصية والكفاءة، ويطلق مفهوم "الذكاء الاصطناعي السيادي" (Sovereign AI) على مستوى المستهلك. القسم السادس: التوصيات الاستراتيجية والآفاق البحثية المستقبلية 6.1. توصيات للفرق الهندسية والبحثية 1. إعادة تخصيص الموارد الاستثمارية: يجب على الفرق الهندسية تحويل استثماراتها من التركيز على شراء ساعات حوسبة ضخمة إلى بناء وتطوير منهجيات توليد البيانات الاصطناعية المنسقة. يجب أن يتم التعامل مع خط أنابيب هندسة البيانات (Synthetic Data Generation Pipeline) كأصل استراتيجي أساسي. 2. التصميم المرتكز على الكفاءة الطرفية: عند تصميم النماذج الجديدة، يجب اعتبار الكفاءة التكلفية وقابلية التكميم متطلبات معمارية أساسية. يجب تحسين النماذج للنشر المحلي (Edge Deployment) منذ المراحل الأولية للتصميم. 6.2. الاتجاهات البحثية المتقاربة 1. الاستدامة المعرفية: تحتاج الأبحاث المستقبلية إلى تقييم ما إذا كان التفوق المعرفي للنماذج الصغيرة المدربة على بيانات تركيبية (مثل Phi-1.5) يمكن أن يستمر عند تطبيقها على نطاقات معرفية أوسع وأكثر تنوعاً في العالم الحقيقي التي تتجاوز المقاييس المعيارية المختبرة. 2. توحيد قياس متانة الوكلاء: من الضروري تطوير مقاييس جديدة لتقييم المتانة الوظيفية وقدرة أنظمة الوكلاء على التعافي من الأخطاء في سلاسل المهام الطويلة، استناداً إلى الإنجاز الذي حققه Jan v2 VLM في الوصول إلى 49 خطوة متتابعة. 3. دمج RL والبيانات المنسقة: يجب استكشاف إمكانية استخدام تقنيات التعلم المعزز الموفرة للتكلفة (مثل GRPO في DeepSeek R1) لضبط النماذج المدربة على البيانات الاصطناعية (Phi-1.5) لزيادة تعميم السببية والقدرة على التفكير التكيفي، ولكن دون تحمل التكلفة الباهظة لمنهجيات RL التقليدية. 6.3. الخاتمة: نهاية عصر نماذج "المليار دولار" تمثل الإنجازات التي حققها Phi-1.5 Mini في الكفاءة التكلفية والأداء، إلى جانب الاستقرار التشغيلي لـ Jan v2 VLM في المهام طويلة الأفق، دليلاً قاطعاً على أن الذكاء الاصطناعي عالي الأداء لم يعد يتطلب استثمارات رأسمالية ضخمة. لقد أثبتت هندسة الكفاءة، التي تركز على جودة البيانات المنسقة، تفوقها على حجم المعلمات في سياقات التطبيق المحددة والنشر المحلي. هذا التحول لا يقتصر على الكفاءة التقنية فحسب، بل هو أساس لتمكين الجيل القادم من تطبيقات الذكاء الاصطناعي اللامركزية، مما يجعل الذكاء الاصطناعي المتقدم أداة متاحة وقوية للمطورين والباحثين في جميع أنحاء العالم. -------------------------------------------------------------------------------- 1. microsoft/phi-1_5 · Hugging Face, 2. Textbooks Are All You Need II: phi-1.5 technical report | alphaXiv, 3. TKDKid1000/phi-1_5-GGUF - Hugging Face, 4. DeepSeek-R1 incentivizes reasoning in LLMs through reinforcement learning, https://www.reddit.com/r/singularity/comments/1nk43b1/deepseekr1_incentivizes_reasoning_in_llms_through/ 5. DeepSeek-R1: Redefining Reasoning with Reinforcement Learning, https://sushantgautm.medium.com/deepseek-r1-redefining-reasoning-with-reinforcement-learning-1e2bc9f38bda 6. Introducing Phi-1.5: The Next Generation of Coding Models | by Zain ul Abideen | Medium, https://medium.com/@zaiinn440/introducing-phi-1-5-the-next-generation-of-coding-models-972aaa8d2fbb 7. NVIDIA A100 Pricing (September 2025): Cheapest On-demand GPU Instances, 8. Open Source LLMs and the Democratization of AI - Coditude, 9. The Rise of “Small” Large Language Models: Democratizing AI - Saltmarch, 10. deepseek-r1 Model by Deepseek-ai | NVIDIA NIM, 11. Jan-v2-VL: 8B model for long-horizon tasks, improving Qwen3-VL ..., https://www.reddit.com/r/LocalLLaMA/comments/1ovxksu/janv2vl_8b_model_for_longhorizon_tasks_improving/
المتعلم المفكر++'s avatar المتعلم المفكر++
#ثورة_الذكاء_الاصطناعي: #GPT_5.1، #روبوتات_ذاتية، و #نموذج_عربي ينافس العالم! #ePreneurs #حسام_الدين_حسن تمّ عرضه للمرّة الأولى في 16‏/11‏/2025 ‫✪ مُتاح للأعضاء أولاً في ‎16 نوفمبر 2025 #بودكاست الذكاء الاصطناعي ( الموسم الثاني ) مع حسام الدين حسن #AI_Podcast في حلقة هذا الأسبوع من بودكاست الذكاء الاصطناعي، نأخذك في جولة سريعة وعميقة داخل #أحدث_التطورات #الثورية في عالم الـ AI… حلقة مليئة أخبار نارية، نماذج جديدة، أدوات جبّارة، ابتكارات من العالم العربي، وروبوتات بدأت فعليًا تدخل بيوتنا! 🌟 افضل اداة الاسبوع ده من حلقة بودكاست الذكاء الاصطناعي وهي : TestSprite 🔗 جرّب المنصة من هنا:https://epreneurs.link/testsprite ودّع أخطاء البرمجة مع TestSprite — أول أداة تراجع كود الذكاء الاصطناعي تلقائيًا! • ودّع أخطاء البرمجة مع TestSprite — أول أدا... نموذج ذكاء اصطناعي صغير تقدر تشغّله على جهازك… ويتغلّب على عمالقة مثل DeepSeek R1! روبوتات بتشتغل داخل البيت بدون أي تحكم بشري! ونموذج AI عالمي جديد… ومن الوطن العربي! غير وكيل ذكاء اصطناعي تقدر تحمّله مجانًا على جهازك علشان ينجز المهام بدالك! 📢 متنساش تشاركنا رأيك في التعليقات: هل شايف إن الذكاء الاصطناعي فعلاً خطر علينا؟ ولا هو المستقبل اللي لازم نستعد له؟ انضم الان الي جروب التليجرام وتواصل مع البشنهندس حسام الدين حسن بشكل مباشر ⚡️https://epreneurs.link/TelegramGroup ⚡️ الانتساب في القناه : ePreneurs حسام الدين حسن https://epreneurs.link/BecomeMember 💡 الحلقة دي مهمة لأي حد مهتم بالذكاء الاصطناعي—سواء صانع محتوى، مطوّر، باحث، صاحب بزنس، أو حتى مستخدم عادي عايز يعرف إزاي الـ AI هيغير شغله وحياته الفترة اللي جاية. ⏱ Timeline – بودكاست الذكاء الاصطناعي الأسبوعي | الحلقة 44 | الموسم الثاني 00:00 – بودكاست الذكاء الاصطناعي الأسبوعي | الحلقة 44 | الموسم الثاني نموذج صغير يتغلب على العمالقة – روبوتات تعمل في المنزل – نموذج AI عربي – وكيل ذكاء اصطناعي مجاني. 00:45 – إعلان الاستشارة المجانية لثلاثة من المشتركين شرح آلية المشاركة وكيفية اختيار الفائزين. 01:00 – خبر 1: إطلاق GPT-5.1 من OpenAI نسختان: Instant وThinking – تحسينات في البرمجة – قدرة أعلى على اتباع البرومبت. 01:47 – قدرات كودكس الجديدة (GPT-5.1 Codex) تفكير أطول في المهام البرمجية – تحسين كتابة الأكواد. 02:26 – استخدام GPT-5.1 مع الوكلاء الذكيين كيف يمكن إضافته إلى Agent System الخاص بصنّاع المحتوى. 02:57 – GPT-5.1 Codex في كتابة الأكواد تحسينات عملية – طلب اقتراحات لتجربة النموذج في حل مشكلات برمجية. 03:33 – تحديث NotebookLM + Deep Research ميزة البحث المتعمق داخل نوتبوك واحد – بداية توفرها في أمريكا فقط. 04:07 – تحديث krea nodes ميزة تسلسل المهام: صورة → نص → تحسين → فيديو → نموذج 3D… وهكذا. 04:44 – نموذج عربي جديد من جامعة محمد بن زايد: BAN-World فهم وتنبؤ للحركة في العالم الحقيقي – مثال الكرة المتحركة والروبوت. 05:18 – نموذج Google SIMA 1 & 2 نماذج تتفاعل داخل الألعاب – تنفيذ مهام داخل عوالم افتراضية. 05:53 – تجربة GEN 3 + SIMA 2 في بناء وتشغيل عالم افتراضي توليد عالم كامل والتحكم فيه بالذكاء الاصطناعي. 06:28 – روبوت Unit 3 للعمل داخل المنازل روبوت يتعامل ذاتيًا بدون تحكم بشري – مخاوف التجسس مثل المكانس الذكية. 07:08 – نقاش حول مستقبل الروبوتات المنزلية هل هي خطوة متقدمة أم بداية مشاكل الخصوصية؟ 07:43 – منصة OpenBuilder للفايب كودينغ كتابة وبناء تطبيقات كاملة – خاصية الـ Finished Credits: الدفع فقط عند نجاح المهمة. 08:21 – بدء تجربة OpenBuilder مباشرة شرح حي لبناء تطبيق To-Do عربي – قدرات الواجهة – بداية تنفيذ المشروع. 08:58 – المنصة تبني تطبيقًا كاملًا – Front & Back End توضيح آلية العمل – انتظار النتيجة. 09:24 – خبر ضخم: نموذج Phi-1.5 Mini يتغلب على DeepSeek R1 حجم صغير (أقل من 2GB) – نتائج مذهلة في اختبارات معقدة. 10:07 – تفاصيل التدريب وتكلفة 7800 دولار فقط ثورة حقيقية في إمكانية تدريب نماذج قوية بميزانيات صغيرة. 10:45 – شرح البحث العلمي وراء النموذج تشجيع على قراءة الدراسة وتحميل النموذج محليًا. 11:21 – منصة Parallels Monitor API متابعة موضوعات محددة لحظيًا على الإنترنت وإرسالها للوكيل الذكي. 11:57 – مشروع تصوير فيديو واحد وتحويله لعالم 3D إمكانية الطيران داخل المشهد – استخدامات في السينما والتحقيقات. 12:36 – تحديث Google Veo 3.1 تحسين تعديل الصور + توفر النموذج على التطبيق والموبايل. 13:14 – إطلاق نموذج Jan v2 VLM المحلي قدرة على تنفيذ 49 خطوة متتابعة – تجارب أولية على الجهاز. 13:53 – تحميل وتجربة النموذج محليًا فحص القدرة على تشغيل إصدار الـ High – بداية الإعداد. 14:24 – جيميني: كتابة وتنفيذ الكود مباشرة داخل المنصة تجربة عملية: حسابات وتحويل الكود إلى مخطط. 15:42 – أداة Brx OCR الجديدة تحويل الصور لملفات دقيقة بدون فقدان للتنسيق. 16:17 – أداة TestSprite MCP (أفضل أداة للأسبوع) اختبار تلقائي للأكواد – تعاون بين الـ AI والأداة لمعرفة الأخطاء وإصلاحها. 16:52 – الدعوة لمشاهدة فيديو شرح TestSprite ذكر مميزات الخطة المجانية. 17:10 – ختام الحلقة #testsprite #testspriteai #testspritemcp #mcp #حسام_الدين_حسن #بودكاست_الذكاء_الاصطناعي #hossamudin #epreneurs #epreneurs #ocr #الصين #kreanodes #نموذج_ذكاء_اصطناعي #صفقة_ابل_وجوجل #ذكاء_اصطناعي_من_الفضاء #GoogleAI #AppleIntelligence #ChineseAI #GoogleGemini #الذكاء_الاصطناعي #AI_عربي #OpenAI #اخبار_الذكاء_الاصطناعي #chatgpt #جوجل #جوجل_اي #روبوتات #OpenAI #AI_Agent #AI_Automation #AITools #AI_News #AI_Podcast #أدوات_الذكاء_الاصطناعي #Hossamudin #AI_Weekly #AI_بودكاست #ذكاءاصطناعي #خبير_اونلاين #تعلم_اونلاين الفصول
View quoted note →