A web-based system that predicts and analyzes Taiwanese stocks using factor scoring, HMM detection, ML models, LLM narratives, and risk controls.
يقدم النظام تحليلًا كميًا للأسهم التايوانية عبر تصنيف 20 عاملًا ماليًا، واكتشاف تحولات النظم باستخدام نماذج ماركوف المخفية، وتكامل نماذج تعلم الآلة. يُنتج نصوصًا تفسيرية باستخدام نماذج اللغة الكبيرة لتوضيح كل توقع. يتيح التصورات التفاعلية المبنية على Plotly للمستخدمين استكشاف الأداء، المخاطر، ومساهمات العوامل. يُبنى النظام على FastAPI وStreamlit، ما يوفر واجهة ويب سريعة الاستجابة للخبراء والمتداولين. يحل المشكلة التي يواجهها المحللون في الحصول على دعم اتخاذ القرار مبني على البيانات مع وضوح وشفافية عالية. يميز النظام بدمج تقنيات متقدمة في تحليل الأسهم مع توليد نصوص بشرية، ما يسهّل فهم النتائج وتطبيقها في الاستراتيجيات الاستثمارية. يهدف إلى تمكين المحللين الماليين والباحثين الكميين من اتخاذ قرارات مستنيرة في سوق الأسهم التايوانية المتقلب.
The upshot project provides a daily intelligence briefing by synthesizing user's newsletter feeds.
يعد مشروع upshot تطبيقًا يجمع ويخزّن محتوى العديد من الإشعارات في شكل موجز يومي سهل القراءة. يساعد هذا الأداة المستخدمين على الحفاظ على الوقت عن طريق دمج مصادر متعددة في briefing يومية واحدة. يستفيد من تقنيات معالجة اللغات الطبيعية لاستخراج النقاط الرئيسية من كل مقال.
This Python tool retrieves and displays Product Hunt's daily hot products for startup founders, product managers, and tech bloggers.
هذا التطبيق يُستخرج ويعرض منتجات Product Hunt اليومية، مع إمكانية الوصول إلى بيانات تاريخية محددة. يتيح للمستخدمين تصفية النتائج حسب الموضوع أو الفئة، مما يسهل استكشاف المنتجات ذات الصلة. يتم تخزين البيانات محلياً في ملفات JSON لتسريع الوصول، ويمكن تصديرها إلى صيغ JSON أو CSV لاستخدامها في التحليلات أو التقارير. يدعم التطبيق إنشاء خلاصات RSS بصيغة 2.0 أو Atom، ما يتيح للمستخدمين الاشتراك في تحديثات المنتجات تلقائياً. كما يتيح إرسال إشعارات عبر Webhook عند ظهور منتجات جديدة، مع إمكانية جدولة عمليات جمع البيانات تلقائياً. يهدف هذا الحل إلى مساعدة المؤسسين ومديري المنتجات والمدونين التقنيين على متابعة أحدث الاتجاهات دون الحاجة لتصفح الموقع يدويًا. يميز التطبيق بواجهة سطر أوامر سهلة الاستخدام، بالإضافة إلى واجهة ويب بديهية، مما يجعله مناسبًا للمستخدمين ذوي الخبرة المتوسطة.
An aggregator that collects automotive listings, categorizes them with AI, and delivers them through a Telegram bot.
يقوم النظام بجمع إعلانات السيارات من مصادر إلكترونية متعددة ويخزنها في قاعدة بيانات علائقية. يتم تصنيف كل إعلان باستخدام نموذج ذكاء اصطناعي يضعه ضمن فئات محددة مثل العلامة التجارية، الطراز، السنة، والحالة، ما يسهل عملية البحث. يوفّر واجهة برمجة تطبيقات مبنية على FastAPI لإدارة واستعلام البيانات، بينما يرسل بوت تيليغرام التحديثات ذات الصلة إلى المستخدمين المشتركين. تعتمد البنية على SQLAlchemy للتعامل مع قاعدة البيانات، Alembic لإدارة الترحيلات، وUvicorn لتشغيل الخادم. يهدف المشروع إلى تسهيل وصول المشترين والبائعين إلى مجموعة واسعة من الإعلانات، مع تقليل الحاجة للفلترة اليدوية. يحل هذا الحل مشكلة تجزئة الإعلانات السيارات ويقدم تصنيفًا ذكيًا يميز تجربة المستخدم.
An AI-driven daily research assistant that fetches, scores, and summarizes new academic papers for researchers.
يستخرج النظام تلقائياً الأوراق العلمية المنشورة حديثاً من مجموعة واسعة من المجلات ومخازن ما قبل الطباعة، ويقوم بإزالة التكرارات مقابل أرشيف المستخدم، ثم يقيم كل ورقة وفقاً للملاءمة والابتكار والصرامة والتأثير باستخدام الذكاء الاصطناعي. يختار النظام أعلى الأوراق للقراءة المتعمقة ويولد تقارير منظمة تتضمن ملخصات مكتوبة بالذكاء الاصطناعي، معادلات رئيسية معروضة بصيغة LaTeX، تفاصيل المنهجية، النتائج، الإيجابيات والسلبيات، الاتجاهات المستقبلية، وأعمال ذات صلة. يتم استخراج الصور وتصنيفها، وتخزين كل المحتوى محلياً في قاعدة بيانات SQLite ويعرض عبر واجهة ويب متجاوبة. يمكن إرسال تلخيص يومي عبر Slack، بينما يوضح رسم بياني تفاعلي باستخدام D3.js شبكات تشابه الأوراق. صُمم هذا الحل لتوفير ساعات من البحث اليدوي للباحثين، وتوفير قاعدة معرفية شاملة وقابلة للبحث.
The WorshipFlow project is designed for musicians and worship leaders to create and manage song sets for their services.
يعد WorshipFlow تطبيقًا على الإنترنت يسمح للموسيقيين وقادة العبادة بتنظيم وتقديم الأغاني في إطار عبادتهم. يتيح للمستخدمين إنشاء وإدارة مجموعات الأغاني، والتي يمكن أن يتمتع بميزات خاصة مثل تركيبات محددة ومدى ومعدلات. يستخدم المشروع لغة بايثون و Django و PostgreSQL لتقديم حل متكامل ومقاوم للتغير.
Provides an API to retrieve a business score for Russian companies based on publicly available data.
يتيح هذا المشروع إمكانية الحصول على درجة تقييم الشركات في روسيا عبر واجهة برمجية مبسطة. يعتمد على استخراج البيانات من المصادر العامة المتاحة على الإنترنت، مثل سجلات الشركات الحكومية، ثم يحللها لتوليد مؤشرات مالية ومخاطر. يتم تقديم النتائج في صيغة JSON مع تفاصيل مثل درجة الائتمان، مستوى المخاطر، ومؤشرات الأداء الرئيسية. يهدف إلى مساعدة المحللين الماليين ومديري المخاطر على اتخاذ قرارات مستنيرة حول الشراكات والاستثمارات في السوق الروسي. يقدّم واجهة سريعة وموثوقة، مع دعم للطلبات المتزامنة عبر بروتوكول HTTP/1.1. يختلف عن الحلول التقليدية بكونه غير مرتبط بقاعدة بيانات ثابتة، مما يتيح تحديثاً فوريًا للبيانات دون الحاجة لإعادة نشر التطبيق.
This project is a stock crawler for Taiwan's stock market, providing data on various aspects of the market.
هذا المشروع هو crawler للأسواق المالية في تايوان، يوفر البيانات حول جوانب مختلفة من السوق. يحتوي على وحدات لاستكشاف TWSE (سوق الأسهم التايواني)، TPEX (سوق طYPEX في طايوان)، TAIFEX (سوق الفوركس في تايوان)، FAOI (بيانات الشركات الثلاث الكبرى للشراء والبيع)، MGTS (بيانات الائتمان والقروض)، TDCC (جدول توزيع حقوق المساهمين من شركة التخزين والتسوية في تايوان، يتم تحديثه كل أسبوع)، و CTEE News (أخبار سوق الأسهم في تايوان من صحيفة التجارة التجارية). يمكن استخدام الأداة كباقة برمجية لغة بايثون أو تشغيلها كخدمة FastAPI.
Scrape web content with ZERO token burn, saving costs and reducing environmental impact.
هذا المشروع هو مجموعة أدوات لاستخراج المحتوى من الإنترنت بدون حرق التوكنات. يستخدم سكريبتات بايثون لاستخراج البيانات من مواقع الويب المختلفة، بما في ذلك نشرة جيسي كانون و مدونة تشات بير دي آر سي. يتم تخزين البيانات المستخرجة كملفات ماركดาวن مُقسّمة. وتتضمن الأدوات الفردية لاستخراج كل موقع، مما يسمح للمستخدمين بتخصيص احتياجاتهم.
This project is a lead enrichment system designed to enhance and update customer data.
هذا المشروع هو نظام تحسين البيانات المتعلقة بالعملاء، ويهدف إلى تحسين جودة المعلومات عن العملاء من خلال تحديثها وتوسيعها. يستخدم هذا التطبيق لغة بايثون ويتضمن استخدام مكتبات متعددة مثل Anthropic و BeautifulSoup و FastAPI و Playwright و Pydantic و Uvicorn. ومع ذلك، فإن عدم توفر تفاصيل إضافية في README أو الوصف يجعل الوظيفة والخصائص الدقيقة لهذا النظام غير واضحة.
A single-user AI assistant that fetches and summarizes web content via a FastAPI gateway.
يُقدِّم هذا المشروع مساعدًا ذكاءً اصطناعيًا شخصيًا يعمل عبر بوابة FastAPI خفيفة الوزن. يقوم بجلب صفحات الويب باستخدام مكتبة للقرصنة، ثم يُحلل المحتوى ويُمرره إلى نموذج لغة من شركة Anthropic لتلخيصه والرد على الأسئلة. تم تصميم المساعد لجلسات مستخدم واحد فقط، دون تخزين بيانات دائمة ويعتمد على الحالة في الذاكرة. يُقدِّم واجهة برمجة تطبيقات RESTful نظيفة يمكن استهلاكها من تطبيقات العميل بأي لغة، بما في ذلك Dart. يُعد الحل مثالياً للمطورين الذين يرغبون في مساعد ذكي سريع ومتكامل للبحث، تدوين الملاحظات، أو الإنتاجية الشخصية. يدمج بين قدرات الاستخلاص الآلي للمعلومات والذكاء الاصطناعي لتوفير إجابات فورية وسهلة الاستخدام.
An AI-powered framework that lets users generate Streamlit-based presentations, courses, and web-books without writing code.
يستفيد Streamtex من نماذج اللغة الكبيرة مثل Claude أو Cursor لإنتاج محتوى منظم تلقائياً لتطبيقات Streamlit. يتيح للمستخدمين تحديد نوع المادة—عرض تقديمي، دورة، أو كتاب إلكتروني—ويولد النظام نصاً، صوراً، مخططات، وعناصر تفاعلية. يدمج الإطار مع مكونات واجهة Streamlit، ما يتيح عرض المحتوى الناتج كواجهة ويب أنيقة مع جهد تقليل. يدعم إنشاء الرسوم البيانية عبر مكتبة matplotlib ويعزز مخرجات الطرفية باستخدام تنسيقات غنية. يستهدف الأفراد الذين يدرسون أو يدرّسون أو يبدعون محتوى تعليمياً دون الحاجة لخبرة برمجية. يحل مشكلة الوقت والجهد في إعداد المواد التعليمية، مع توفير تنسيق متسق وجذاب. يميز نفسه بقدرة التوليد التلقائي والتكامل السلس مع بيئة Streamlit، ما يتيح نشر المحتوى بسرعة وفعالية.
Aula is an API wrapper designed to provide access to the Aula platform.
هو مكتبة برمجة بايثون تهدف إلى توفير واجهة برمجية لاستخدام منصة أولا. تسمح هذه المكتبة للمطورين بدمج وظائف منصة أولا في تطبيقاتهم بسهولة. تستخدم المكتبة أدوات مشهورة مثل BeautifulSoup و Click لتسهيل عملية التطوير.
A starter template for building responsive directory websites using AstroWind and Tailwind CSS.
يُقدّم هذا القالب أساساً جاهزاً لإنشاء مواقع الدليل التي تتميز بالاستجابة العالية والجاذبية البصرية. يستند إلى AstroWind، وهو مزيج من Astro و Tailwind CSS، لتوفير تحميل سريع للصفحات وبنية مكوّنات نظيفة. تشمل الميزات الرئيسية شريط بحث، فلاتر فئات، وتخطيط شبكة للعرض، كل ذلك مُصمم باستخدام أدوات Tailwind. يُكتب القالب بلغة TypeScript و JavaScript، مما يسهل توسيعه مع منطق مخصص أو دمجه مع واجهات برمجة تطبيقات خارجية. يستهدف المطورين الأماميين ومصممي الواجهات الذين يرغبون في إنشاء أو إطلاق موقع دليل بسرعة، ويحل مشكلات إعداد التوجيه، والتصميم المتجاوب، والتهيئة الأساسية من الصفر.
A machine‑learning bot that predicts UFC fight outcomes and places value bets on prediction markets.
يقوم النظام بجمع إحصائيات المباريات التاريخية من مصدر عام للبيانات، ويصمم أكثر من تسعين ميزة تنبؤية، ثم يدرب نماذج تجميعية لتوقع نتائج القتال. يتم دمج توقعات النماذج مع الاحتمالات المتاحة في أسواق التنبؤ لاكتشاف رهانات ذات قيمة، مع ضبط الأوزان وفقاً لدرجة الثقة. يطبق النظام ضوابط إدارة المخاطر مثل حجم الرهان وفق معيار كيللي، وحدود وقف الخسارة، وفلاتر لحركة الخطوط لحماية رأس المال. تُنفذ الصفقات تلقائياً على منصة أسواق التنبؤ، بينما يراقب النظام باستمرار بطاقات القتال القادمة وتغيرات الخطوط. يضمن اختبار الأداء والاختبار المتقدم عبر الزمن استمرارية فعالية الاستراتيجية.
The Restorical Wisconsin project is a web application that uses Python and various libraries to scrape or retrieve data from the web.
هذا المشروع يبدو أنه تطبيق ويب لاستخراج البيانات أو استرجاعها من الويب، يستخدم مكتبات بيرثون Python مثل BeautifulSoup و pandas و playwright. قد يكون يستخدم لاستخراج البيانات أو استرجاعها أو مهام أخرى متعلقة. ومع ذلك، بدون معلومات إضافية، يظل الغرض والوظيفة الخاصة بهما غير واضحة.
An AI‑powered platform that automatically creates and distributes weekly music newsletters for independent artists.
تُستخدم نماذج اللغة الكبيرة لتجميع وتوليد وتنسيق نشرات أسبوعية مخصصة للفنّانين المستقلين، مع التركيز على الإصدارات الجديدة، وتواريخ الحفلات، والقصص وراء الكواليس. يقوم النظام بجمع البيانات من مصادر ويب مختلفة عبر تقنية التحليل النصي، ثم يُحوّلها إلى محتوى جذاب قابل للتخصيص لكل مشترك. يُقدّم واجهة برمجة تطبيقات خفيفة الوزن مبنية على FastAPI تسمح بإنشاء المحتوى، معاينته، وجدولة الإرسال، بينما يوفر واجهة سطر أوامر لتسهيل الاختبار والنشر المحلي. يستهدف المنصة الفنّانين المستقلين، والملصقات الصغيرة، والمروجين الموسيقيين الذين يحتاجون إلى وسيلة فعّالة من حيث التكلفة للحفاظ على تواصل مستمر مع جمهورهم. يحل النظام مشكلة الجهد اليدوي المكثف في كتابة النشرات ويضمن جودة عالية وتواتر ثابت. يميز المشروع بدمج الذكاء الاصطناعي مع أدوات جمع البيانات لتقديم محتوى فريد ومخصص لا يقدمه أي حل مشابه.
An AI‑driven platform that automatically creates weekly music newsletters for independent artists.
تُعد منصة Weeklyamp خدمة ويب تستخدم نماذج الذكاء الاصطناعي الكبيرة لإنشاء نشرات أسبوعية مخصصة للفنّانين المستقلين. تقوم المنصة بجمع الأخبار الموسيقية، والإصدارات، والتحديثات على وسائل التواصل الاجتماعي، ثم تُصاغ مقالات مختصرة، وتوصيات للقطع الموسيقية، ونصوص دعائية ذات جودة عالية. يتيح للفنّانين جدولة النشرات، وتخصيص النبرة والأسلوب، وتوزيعها عبر البريد الإلكتروني أو القنوات الاجتماعية. تستهدف المنصة الموسيقيين المستقلين والملصقات الصغيرة الذين يرغبون في الحفاظ على حضور منتظم دون الحاجة لكتابة المحتوى يدويًا. تحل المشكلة التي يواجهها الفنّانون في إنفاق الوقت على إنشاء المحتوى، وتوفر لهم تحديثات ذات صلة وجذابة لجمهورهم. كما تميز Weeklyamp بقدرة الذكاء الاصطناعي على التكيّف مع أسلوب كل فنان، مما يضمن أن تكون النشرات فريدة ومناسبة للهوية الموسيقية الخاصة بهم. بالإضافة إلى ذلك، توفر المنصة أدوات تحليلية بسيطة لقياس مدى وصول النشرات وتفاعل الجمهور، مما يساعد الفنانين على تحسين استراتيجيات الترويج.
Crawl a website and display its link structure as an interactive force‑directed graph, optionally overlaying Google Analytics traffic data.
يقوم البرنامج بفحص موقع ويب محدد، يجمع الروابط الداخلية ويصنف الصفحات إلى مجموعات محتوى مثل المدونة، الوثائق، أو المنتج. ينتج ملف JSON يمثل الرسم البياني، ثم يُعرض في عارض ويب خفيف الوزن كرسوم بيانية موجهة بالقوة. يمكن للمستخدمين التبديل بين وضع البنية—حيث يعكس حجم العقد عدد الروابط الواردة ولونها يشير إلى فئة المحتوى—وضع الحركة الذي يوضح عدد الجلسات وحجم الحركة باستخدام بيانات GA4. يوفر العارض ميزات تفاعلية مثل تصفية العمق، وإزالة حواف المراكز، وتحديد الجوار لتبسيط الرسم البياني. من خلال إضافة مقاييس الحركة الحقيقية، يمكن لأصحاب المصلحة تحديد الصفحات التي تُحرك التفاعل وتحديد أولويات التحسين بسرعة.
Tracks and visualizes the hawkish or dovish stance of Federal Open Market Committee participants using AI-driven classification.
يستخرج التطبيق بيانات التصريحات والملخصات من اجتماعات لجنة السوق المفتوحة الفيدرالية، ثم يُطبِّق معالجة اللغة الطبيعية لتحديد ما إذا كانت مواقف المشاركين تُظهر حنقاً أم ليناً. يُصنِّف النموذج الذكي كل تعليق ويُعطيه درجة، ثم يجمع النتائج عبر جميع المشاركين والاجتماعات. تُعرض النتائج في مخططات تفاعلية تُظهر الاتجاهات عبر الزمن، ما يتيح للمستخدمين مقارنة الانطباعات الفردية والجماعية. يُقدَّم التطبيق كواجهة ويب تفاعلية، بحيث يمكن للباحثين والمحللين الوصول إليه دون الحاجة لتثبيت برامج محلية. يوفِّر هذا الحل رؤى سريعة وموثوقة حول اتجاهات السياسة النقدية، وهو ما يسهِّل اتخاذ القرارات في مجالات الاقتصاد والمالية.
Refrakt is an AI-powered pipeline that analyzes tracks from Spotify playlists, generates original music, and creates concept albums.
يستخدم Refrakt pipeline مصفوفة الذكاء الاصطناعي لتحويل الأغاني من أي قائمة Spotify إلى موسيقى أصيلة. يبحث في الشخصية الموسيقية للtract المصدر، ويولد كلمات جديدة تمامًا التي تحمل نفس الروح، ويقوم بإنشاء وصفات نمطية معنية بالصوت لتحقيق التوليف الدقيق. كما يقيم جودة كل تрек باستخدام Gemini و ي.publish النتائج على YouTube. بالإضافة إلى ذلك ، يمكن Refrakt أن يخلق ألبومات مفاهيم كاملة من الصفر بدون مدخل بشري.
The lifeos project is a personal RAG (Rating and Grading) system designed for use within an Obsidian vault.
هذا النظام هو نظام تصنيف ومراجعة شخصي مصمم للاستخدام مع مخازن Obsidian. يسمح للمستخدمين بتصنيف ومراجعة الملاحظات، مما يوفر نهجًا موصوفًا للادارة المعرفية. يمكن تخصيص النظام لتلبية احتياجات الفرد، مما يجعل منه أداة فعالة لكتابة الملاحظات والتنظيم.
An autonomous AI agent that automatically searches for jobs, matches them to a user's Navox profile, and drafts outreach emails while the user sleeps.
يعمل هذا البرنامج كوكيل ذكاء اصطناعي يعمل في الخلفية، يقوم بمسح مستمر للوظائف وقوائم الشركات للعثور على فرص تتوافق مع ملف المستخدم في Navox. يستخدم خوارزميات مطابقة متقدمة لتصفية المناصب وفقًا للمهارات والخبرة والتفضيلات، ما يضمن ملاءمة عالية. بعد تحديد الوظائف المناسبة، يقوم الوكيل بصياغة رسائل تواصل شخصية أو رسائل تقديم جاهزة للمراجعة أو الإرسال الفوري. يعمل البرنامج تلقائيًا أثناء الليل، مما يحرر المستخدم من البحث اليدوي والتواصل. يهدف إلى مساعدة المهنيين في مسارهم الوظيفي على زيادة كفاءة عمليات التقديم وتحسين معدلات النجاح.
This tool automatically fetches and stores earnings call transcripts for S&P 100 companies, providing a daily updated JSON archive.
يستخرج المشروع نصوص مكالمات الأرباح لشركات S&P 100 باستخدام واجهة برمجة تطبيقات عامة، ويخزن كل نص في ملف JSON منظم. يتم تشغيل العملية تلقائياً كل يوم، ما يضمن تحديث الأرشيف بأحدث النصوص المتاحة. بالإضافة إلى ذلك، يحافظ المشروع على تقويم قابل للقراءة الآلية لمكالمات الأرباح القادمة لجميع شركات S&P 500، مع تحديثه كل صباح. تُعد البيانات جاهزة للتحليل، أو إعداد التقارير، أو دمجها في لوحات معلومات مالية. يمكن للمستخدمين تشغيل العملية يدويًا أو تحديد أسهم معينة عبر وسائط سطر الأوامر. يتيح هذا النهج الوصول السريع إلى معلومات مالية حيوية دون الحاجة إلى جمع يدوي أو الاعتماد على مصادر غير موثوقة.
This project is a production-grade data pipeline that extracts, normalizes, and structures alternative investment commitment data from U.S. public pension fund disclosures.
هذا المشروع هو خطط استخراج البيانات من الاستثمارات البديلة في التمويلات العامة للتقاعد في الولايات المتحدة. يجمع هذا الخطط البيانات من خمسة من أكبر التمويلات العامة في الولايات المتحدة، ويستخدم تقنيات محددة لاستخراج البيانات من صفحات الويب والملفات PDF. كما يقوم بتحديد الاستثمارات حسب strategie من خلال اسمها، ويتتبع كل بياناته حتى يمكن إعادة توجيهها إلى مصدرها، ويقدم تقارير جودة تشير إلى الأشكال غير المألوفة.
Generate Orama search indexes from Thaqalayn data for developers building search features.
يُستخرج المحتوى من قاعدة بيانات ثقلين ويُعالج ليُنشئ فهارس بحث متوافقة مع منصة Orama. يتم جمع البيانات عبر أدوات تحليل الويب، ثم يُفصل الحقول ذات الصلة مثل العنوان، النص، والبيانات الوصفية. يُمكن للبرنامج أن يُحسّن النصوص باستخدام نماذج الذكاء الاصطناعي، ما يضيف طبقة إضافية من الدقة والملاءمة. تُصدر الفهارس ملفات JSON خفيفة الوزن تُستعمل مباشرة في محركات البحث السريعة. يستهدف المطورين الذين يبنون واجهات بحث على الويب أو التطبيقات المحمولة، ويحل مشكلة إنشاء الفهارس يدويًا وتجنب الأخطاء. يميز المشروع بدمجه بين تقنيات التحليل الآلي والذكاء الاصطناعي لتوفير فهارس دقيقة وسريعة، مع واجهة سطر أوامر سهلة الاستخدام.
Automatically generate a weekly digest of robotics and AI news and publish it as a static website.
يقوم هذا المشروع بجمع الأخبار الأسبوعية في مجال الروبوتات والذكاء الاصطناعي المادي. يستخدم بروتوكولات RSS وواجهة برمجة arXiv بالإضافة إلى تقنية BeautifulSoup لاستخراج المقالات ذات الصلة. بعد التجميع، يتم إرسال المحتوى إلى واجهة LM Studio API لتوليد ملخصات دقيقة وتصنيفها حسب الموضوع. ثم يتم تحويل هذه الملخصات إلى صفحة HTML ثابتة باستخدام قالب Jinja2، مع تنسيق جذاب عبر Tailwind CSS. تُنشر الصفحة تلقائياً على GitHub Pages، ما يتيح الوصول السريع للقراء. يُشغَّل البرنامج على Raspberry Pi عبر نظام systemd timer ليعمل كل يوم اثنين، مما يضمن تحديثاً أسبوعياً مستمراً.
An autonomous evolution framework that iteratively improves a multi‑agent system through a blackboard architecture.
يُقدِّم الإطار بنية أساسية تعتمد على لوحة أسود لتنسيق عمل الوكلاء عبر ملفات مشتركة، مع مراقب يخطط للمهام ويُعطيها للوكيل المناسب. يقوم مهندس التطور بإنشاء وكلاء فرعية متخصصة—باحث، مدقق، مطور، مختبر، ومراجع—لتقييم وتحسين الكود، ما يخلق حلقة تطور ذاتية. يدمج النظام أدوات جديدة تلقائياً، يتعقب تكلفة الجلسة، ويصدر تقارير عن استهلاك الرموز، كل ذلك دون تدخل بشري. يستهدف المطورين والباحثين الذين يبنون أنظمة وكلاء ذكية ويحتاجون إلى تحسين مستمر وسريع. يحل الإطار مشكلات إعادة التهيئة اليدوية، وربط الأدوات، ورصد الأداء في بيئات وكلاء معقدة، ويتميز بقدرة التكيف الذاتي التي لا توجد في حلول مماثلة.
Automates the ingestion, processing, and AI‑generated enrichment of RSS feed content for publishing workflows.
يستخرج النظام تلقائياً المقالات من خلاصات RSS، ثم يُحلل المحتوى باستخدام أدوات استخراج متقدمة لتحويل الصفحات إلى نص قابل للمعالجة. بعد ذلك، يُطبّق سلسلة من نماذج الذكاء الاصطناعي—بما في ذلك OpenAI وAnthropic—لإعادة صياغة أو تلخيص أو توسيع المحتوى وفقاً للمعايير المحددة مسبقاً. تُنسق هذه العمليات عبر واجهة سطر أوامر بسيطة، ما يتيح للمستخدمين جدولة المهام، متابعة التقدم، وتصدير النتائج بصيغ جاهزة للنشر. يهدف المشروع إلى تقليل الجهد اليدوي للمحررين والمسوقين الرقميين، مع ضمان جودة وموثوقية المحتوى. يتيح التصميم القابل للتوسعة للمطورين إضافة نماذج جديدة أو خطوات معالجة مخصصة، ما يجعل النظام مرناً ويستجيب لتغيرات احتياجات السوق.
The Heroes and More project is a web application designed for users to manage their heroes and more.
هذا المشروع يبدو أنه نظام إدارة الأبطال عبر الإنترنت. يستخدم Django كإطار عمل، جنبًا إلى جنب مع SDK AWS لدمج الخدمات السحابية. يعتبر التطبيق يتفاعل مع PostgreSQL لتخزين البيانات و Redis للتعرف على الكاش. تستخدم Beautiful Soup لمعالجة محتوى HTML، بينما Celery يhandle task queuing. Gunicorn يقدم التطبيق.
FreeIL is a search agent that finds free events across Israel, covering various categories such as museums, lectures, yoga, tours, and art exhibitions.
هو مشروع مفتوح المصدر يجمع بين أحداث مجانية في إسرائيل من مصادر متعددة، بما في ذلك GoOut.co.il و parks.org.il و بحث جوجل. يستخدم المشروع kombinación من scraping الويب وتحليل قوى الذكاء الاصطناعي لاستخراج وتصنيف الأحداث. يوفّر المشروع خريطة تفاعلية مع علامات ملونة ومسموح للزوار بتصفية الأحداث حسب المدينة والنوع.
Rotation Radar is a sector rotation intelligence system that turns cross-platform social chatter into ranked, explainable trading signals.
يستخدم Rotation Radar نظام استخبارات دوران القطاع لتحويل النقاش الاجتماعي عبر المنصات إلى إشارات تداول مصنفة وشرعية. لا يعد Rotation Radar لوحة ارتياح عامة - هو محرك قصة إلى إشارة إلى قرارية يستفسر بين ما هو صاخب (حرارة) وما هو مبكر (الجذب). يتم جمع البيانات من مصادر متعددة، ويتم استخراج الكيانات، وتحليل المشاعر، وتصنيف الإشارات على أساس السرعة، والانفصال، والمسببات.
Buzzit aggregates and analyzes trending online content, providing real‑time insights for marketers and analysts.
يقوم Buzzit بجمع وتحليل المحتوى الشائع على الإنترنت عبر تصفح المواقع ووسائل التواصل الاجتماعي، مع التركيز على استخراج المواضيع والكلمات المفتاحية الرائجة. يتم معالجة البيانات الخام باستخدام مكتبات إحصائية، ثم تخزينها في قاعدة بيانات PostgreSQL لتوفير بنية منظمة للبيانات. يتيح النظام واجهة برمجة تطبيقات REST مبنية على FastAPI، ما يتيح للمستخدمين الاستعلام عن أحدث الاتجاهات، والاتجاهات التاريخية، ومؤشرات المشاعر. يستهدف المشروع فرق التسويق، واستراتيجيي المحتوى، ومحللي البيانات الذين يحتاجون إلى رؤى فورية حول المحادثات على الإنترنت. يحل Buzzit مشكلة تتبع الاتجاهات يدويًا من خلال أتمتة جمع البيانات، تحليلها، وتقديمها عبر خدمة موحدة وقابلة للتوسع. يميز المشروع قدرته على العمل في الوقت الحقيقي، وتكامل البيانات من مصادر متعددة، وتوفير واجهة سهلة الاستخدام للباحثين عن بيانات السوق.
A command‑line tool that automatically crawls mobile app stores to collect user reviews for analysis.
يُعد هذا المشروع أداة سطر أوامر بسيطة تُكتب بلغة بايثون وتستعمل مكتبات Selenium وBeautifulSoup لتصفح صفحات متاجر التطبيقات وجمع مراجعات المستخدمين مع تقييماتهم وبيانات التعريف ذات الصلة. يُشغَّل من الطرفية ويقبل معلمات مثل معرّفات التطبيقات وفترات التاريخ، ثم يُخرج البيانات المُجمَّعة بصيغة JSON أو CSV لتسهيل معالجتها لاحقاً. صُمِّم لتلبية احتياجات المطورين والمسوقين والمحللين الذين يرغبون في الحصول على تعليقات فورية حول تطبيقاتهم أو تطبيقات المنافسين. يتعامل مع التصفح المتعدد الصفحات، وتحميل المحتوى الديناميكي، ويُطبِّق إجراءات بسيطة لتجاوز قيود التصفح الآلي. بفضل توفيره لبيانات مراجعات منظمة، يُمكنه دعم تحليل المشاعر، ورصد الاتجاهات، وتحديد أولويات الميزات المستقبلية.
A command‑line and API tool that monitors MLS listings and sends real‑time alerts to real‑estate investors.
يعمل النظام على استخراج بيانات قوائم MLS بشكل مستمر، مع تطبيق معايير استثمارية محددة مسبقاً لتصفية العقارات ذات الصلة. يتم إرسال تنبيهات فورية عبر البريد الإلكتروني أو خدمات الرسائل إلى المستثمرين، مع إمكانية تخصيص القنوات والوقت. يوفر واجهة برمجة تطبيقات خفيفة الوزن تسمح بدمج المنطق في لوحات معلومات مخصصة أو أدوات طرف ثالث، ما يتيح مراقبة مستمرة للصفقات. يعتمد على إطار FastAPI لتقديم أداء عالٍ في معالجة الطلبات، ويستخدم Typer لتوفير واجهة سطر أوامر سهلة الاستخدام. يستهدف المستثمرين العقاريين، محللي السوق، ومديري العقارات الذين يحتاجون إلى وصول سريع إلى معلومات الصفقات ذات الجودة العالية. يحل المشكلة التي يواجهها الباحثون اليدويون في جمع وتصفية البيانات، ويقلل الوقت المستغرق في البحث، مما يتيح اتخاذ قرارات سريعة وفعّالة. يميز نفسه عن الحلول التقليدية بقدرته على الجمع بين الأتمتة الفورية والمرونة في التكامل مع الأنظمة القائمة.
A command‑line tool that scrapes fantasy football data and presents it in a readable format for enthusiasts.
أداة Fantasy Football Scraper هي أداة سطر أوامر خفيفة الوزن مكتوبة بلغة بايثون تقوم بجمع بيانات كرة القدم الخيالية من مواقع إلكترونية شهيرة. تستخدم تقنيات استخراج البيانات عبر الإنترنت لجمع إحصائيات اللاعبين والفرق مثل النقاط، والمراكز، ونتائج المباريات، ثم تنسق هذه المعلومات باستخدام مكتبة Rich لتقديم عرض أنيق في الطرفية. تُصمم الأداة خصيصاً للمديرين الذين يرغبون في الحصول على رؤى فورية ومحدثة دون الحاجة للخروج من الطرفية. تدعم الأداة تصفية النتائج حسب الدوري، أو الفريق، أو اللاعب، كما يمكنها إنتاج ملخصات أو تقارير مفصلة. بفضل حذف الحاجة للنسخ واللصق اليدوي، توفر الأداة الوقت وتقلل الأخطاء في إعداد الخطط.\n\nتُحل هذه الأداة مشكلة الاعتماد على جداول يدوية أو مواقع غير موثوقة، وتوفر واجهة موحدة وسريعة للوصول إلى البيانات الضرورية لإدارة الفرق الخيالية بكفاءة.\n\nما يميزها عن الحلول المشابهة هو تركيزها على تجربة المستخدم في الطرفية مع دعم تنسيقات متقدمة، مما يجعلها أداة عملية للمديرين الذين يفضلون العمل في بيئة سطر أوامر.
Enables secure, multi‑account access to Google services such as Gmail, Calendar, Docs, and Sheets via a command‑line interface.
يُقدِّم هذا البرنامج واجهة سطر أوامر تسمح بالوصول الآمن والمتعدد للحسابات إلى خدمات Google مثل Gmail وCalendar وDocs وSheets. يتيح للمستخدمين استرجاع وإرسال وإدارة البيانات عبر الحسابات المختلفة من خلال أوامر بسيطة. يعتمد على مصادقة OAuth ويخزن رموز الوصول محلياً لتجنب تسجيل الدخول المتكرر. صُمم خصيصاً للمطورين والمستخدمين المتقدمين الذين يحتاجون إلى الوصول البرمجي إلى خدمات Google دون الحاجة إلى متصفح. يسهّل دمج الخدمات في نصوص الأتمتة وعمليات التكامل داخل بيئات التطوير. يميز هذا الحل بتركيزه على الأمان وسهولة الاستخدام في بيئات سطر الأوامر.
A Python tool that identifies and maps historical sites associated with Jesus for researchers and educators.
يُجَمع المشروع المواقع التاريخية المرتبطة بيسوع عبر استخراج البيانات من مصادر إلكترونية موثوقة. يُستَخدم تحليل اللغة الطبيعية لاستخلاص التفاصيل الجوهرية مثل التاريخ والموقع الجغرافي. تُنَسّق النتائج في صيغة منظمة يمكن تحويلها إلى خرائط أو تقارير بحثية. يستهدف الباحثين في التاريخ والدراسات الدينية والمعلمين الذين يحتاجون إلى بيانات دقيقة ومحدثة. يحل المشكلة التي تواجهها المصادر المتفرقة من خلال أتمتة جمع المعلومات وتلخيصها، ما يوفر الوقت والجهد في إعداد المواد التعليمية أو الدراسات الأكاديمية. يميز المشروع بدمج تقنيات الاستخلاص الآلي مع الذكاء الاصطناعي لتقديم معلومات موثوقة وسهلة الاستعمال.
An automated system that scrapes market data, analyzes it with AI, and delivers concise summaries to users via Telegram.
يُجمع النظام تلقائياً بيانات السوق المالية من مصادر إلكترونية متعددة، ثم يُعالج هذه المعلومات باستخدام مكتبات إحصائية ونماذج ذكاء اصطناعي لتوليد رؤى مختصرة وقابلة للتنفيذ. يُستَخدم إطار عمل خفيف الوزن لتوفير نقاط نهاية لاستيراد البيانات، بينما يُرسل البوت الرسائل إلى تيليغرام لتوصيل ملخصات يومية أو فورية مباشرةً إلى القنوات أو المحادثات الخاصة. يحصل المستخدمون على ملخصات مُصنَّفة تُبرز تحركات السوق الرئيسية، وتحليلات الاتجاهات، وفرص محتملة، دون الحاجة إلى تصفح البيانات الخام. يهدف النظام إلى المتداولين، والمستثمرين، والمحللين الماليين الذين يحتاجون إلى معلومات سوقية سريعة ومعززة بالذكاء الاصطناعي. بدمج تقنيات جمع البيانات، والعلوم البيانات، وتوليد اللغة الطبيعية، يقلل المشروع الجهد اليدوي ويُسرّع عمليات اتخاذ القرار.
A terminal-based tool for mining biomedical associations in the NHANES dataset, enabling interactive exploration and AI-assisted interpretation.
يقدم التطبيق واجهة نصية تفاعلية لاستعلام وتحليل الروابط داخل مجموعة بيانات NHANES الطبية. يمكن للمستخدمين تصفية المتغيرات، تشغيل اختبارات إحصائية، وعرض الرسوم البيانية مباشرة في الطرفية. يدمج الأداة نماذج الذكاء الاصطناعي لتقديم تفسيرات سياقية للأنماط المعقدة، مما يساعد الباحثين على فهم النتائج بسرعة. تدعم الأداة معالجة البيانات باستخدام pandas، والتحليل الإحصائي عبر scipy، والتصوير باستخدام matplotlib، كل ذلك منظم عبر واجهة Typer. صُممت لتلبية احتياجات الباحثين والمحللين، وتبسط سير العمل من استرجاع البيانات إلى توليد الرؤى. كما توفر إمكانية تصدير النتائج إلى ملفات CSV أو PDF لتوثيق الدراسات. يتيح التفاعل في الطرفية استكشاف سريع للبيانات دون الحاجة إلى بيئات رسومية معقدة.
This project is an automated system for downloading, processing, and transforming YouTube transcriptions into structured knowledge bases using Google Gemini.
هذا المشروع هو نظام تلقائي لتحميل وتحليل وترجمة تحويلات فيديو يوتيوب إلى قواعد المعرفة المنظمة باستخدام جيميني من غوغل. يدعم النظام العديد من أنماط التحليل مع الذكاء الاصطناعي، بما في ذلك FAQ، وكتابه، وفرم عمل كامل، ومبني على العميل، وPRD BMAD. كما يحتوي النظام على تحويل ترسيمي مزدوج، وتحول روتاري للبروكسى، والتقدم المستمر، والدعم اللغوى المتعدد، وتكامل لتدريب العميل.
The sagaapi project provides an API for the Saga Golf non-profit organization.
هذا هو API ويب مصمم ليدعم العمليات من منظمة Saga Golf غير الربحية. يستخدم Python و مجموعة من المكتبات بما في ذلك Beautiful Soup و FastAPI و Pydantic و SQLAlchemy و Uvicorn. يتفاعل مع قاعدة بيانات PostgreSQL. الغرض من المشروع هو تقديم حل فعال ومقاوم للتغير لادارة البيانات المتعلقة بالمناسبات واللاعبين.
The daily-brief project is an AI-powered news intelligence engine that aggregates multiple sources to provide a personalized daily briefing.
هذا المشروع يجمع أكثر من 60 مصدرًا RSS ويعتمد تقنيات معالجة اللغات الطبيعية (NLP) لتنظيم القصص ذات الصلة، وتصنيفها حسب الأهمية، وتحليلها يوميًا مع البيانات السوقية والطقس والأشارة الاستثمارية ومواقف القصص المتابعة.
A command‑line tool that scrapes structured data from web pages, cleans it, and presents it in a readable format.
تُعد أداة Titan Veritas أداة سطر أوامر مبنية بلغة بايثون تُستَخدم لجمع البيانات المنظمة من صفحات الويب. تُستَخدم مكتبة تحليل HTML قوية لاستخراج الجداول أو العناصر الرئيسية، ثم تُحمَّل هذه البيانات إلى بنية جدوليّة تُسهل عمليات التنظيف والتحويل. تُقدِّم الأداة إمكانيات لإزالة القيم غير المرغوب فيها، تحويل الأنواع، وتوحيد الصيغ، مع إمكانية تصدير النتائج إلى ملفات CSV أو JSON. تُعرض النتائج في الطرفية باستخدام مكتبة عرض متقدمة تُضفي تنسيقاً ملوناً وجذاباً على الجداول، ما يسهل قراءتها وتفسيرها. تستهدف هذه الأداة المحللين والباحثين والصحفيين الذين يحتاجون إلى استخراج بيانات من الويب بسرعة وبدون كتابة كود مخصص، وتُحل مشكلة الاعتماد على أدوات غير موثوقة أو غير مرنة في جمع البيانات.
The Job Spy API is a lightweight wrapper around the Python JobSpy library, providing an interface for job scraping.
هذا المشروع يوفر طريقة بسيطة ومؤثفة لاستخراج الوظائف من مصادر متعددة باستخدام FastAPI. يعمل كWRAPPER حول مكتبة python-jobspy، مما يسمح للمستخدمين بدمج وظيفة استخراج الوظائف بسهولة في تطبيقاتهم. يتم تصميم API بهذه الطريقة لتكون خفيفة الوزن ومريحة الاستخدام، مما يجعلها مناسبة لعدد كبير من الحالات الاستخدامية.
This project teaches you to build, dockerize, and deploy NLP systems professionally from basic Python skills.
هذا المشروع يملأ الفجوة في الصناعة حيث العديد من الدورات تعلم برمجة أنظمة NLP التي تعمل في نوتبوك جوبير ولكنها تفشل في تقديم مسار واضح إلى الإنتاج. هذا المشروع يغطي رحلة كاملة من مهارات Python الأساسية إلى نظام حقيقي يعمل في Docker مع مراقبة، مستعدًا للإنتاج. سوف تعلم تقنيات backend الحديثة، تقنيات NLP المتقدمة، التعلم العميق، DevOps، ومراقبة.
The scrapers project automates web scraping tasks using Chrome and various libraries.
هذا المشروع يسمح بالاستغلال الآلي للويب من خلال الاستخدام التلقائي لبرنامج كروم. يستخدم مشروع scrapers مجموعة من الأدوات مثل Beautiful Soup, Express, Jest, Pandas, Puppeteer, Selenium, SocketIO, Kafka, و MySQL لجمع البيانات من المواقع على شبكة الإنترنت.
An AI‑driven web service that interprets user requests and automates browser actions to retrieve or manipulate data from a target website.
يقدم هذا المشروع واجهة ويب تسمح للمستخدمين بإرسال استفسارات باللغة الطبيعية. يقوم نموذج الذكاء الاصطناعي بتحليل الطلب لتحديد الإجراء المطلوب، مثل البحث عن منتج أو حجز موعد. ثم يُستخدم برنامج التحكم في المتصفح لتوجيه متصفح غير مرئي إلى الموقع المستهدف، بينما يُستخرج المحتوى المطلوب باستخدام أدوات تحليل الصفحات. تُعرض النتائج للمستخدم في تنسيق منظم وسهل القراءة. يتيح المشروع نشرًا سريعًا ويمكن دمجه في سير العمل الحالي أو استخدامه كأداة مستقلة. يحقق حلًا فعالًا للتفاعل الآلي مع صفحات الويب الديناميكية دون الحاجة لكتابة كود يدوي، ما يوفّر الوقت والجهد للمستخدمين.
Titanium is a data analysis and visualization tool for web applications.
هذا المشروع يستخدم لغة بايثون لإنشاء لوحة تحكم تفاعلية للمساعدة في استكشاف البيانات وتحليلها. يعتمد على مكتبات مثل BeautifulSoup و NumPy و Pandas و SciPy و Streamlit لتقديم واجهة مستخدم سهلة الاستخدام للتحليلات البيانية. هذا الأداة مصممة لأصحاب العمل الذين يحتاجون إلى تحليل بيانات معقدة.
This project is a jury duty checker, intended for individuals who want to verify their eligibility or status regarding jury service.
هذا المشروع هو أداة لتحقق من إقامة الجريمة أو حالة الخدمة، موجهة للأفراد الذين يريدون التحقق من مؤهلهم أو حالة الخدمة. يبدو أن هذا المشروع يستخدم مكتبة BeautifulSoup للعثور على المعلومات المطلوبة. ومع ذلك، بدون تفاصيل إضافية، لا يزال غير واضح كيف يعمل هذا المشروع أو ميزاته. قد يكون هذا المشروع مفيدًا للأفراد الذين يريدون تسهيل عملية التحقق من حالة الخدمة.