A benchmark that evaluates thermodynamic reasoning capabilities of large language models.
يُعد ThermoQA مقياساً مُصمماً خصيصاً لاختبار مدى قدرة النماذج اللغوية الكبيرة على فهم وتطبيق مفاهيم الديناميكا الحرارية. يتضمن مجموعة متنوعة من الأسئلة الفيزيائية التي تتطلب استنتاجاً كميًا، وتحويل وحدات، وتطبيق القوانين الأساسية. يُقدّم المقياس إجابات مرجعية ومعايير تقييم لقياس أداء النماذج بشكل موضوعي. يمكن للباحثين والمطورين استخدامه لتقييم البنى الجديدة، أو استراتيجيات التعديل، أو تصميمات التوجيه. يسلّط الضوء على نقاط القوة والضعف في التفكير الدنّامي، مما يساهم في توجيه تحسينات مستقبلية في نمذجة اللغة العلمية.
This project analyzes the exposure of various occupations to AI technology, specifically language models, using a methodology developed by Princeton University and NYU researchers.
هذا المشروع يهدف إلى تقديم قياس موضوعي لمدى تأثير التكنولوجيا الذكية على مختلف الوظائف. يستخدم البيانات من O*NET و MTurk لحساب مدى تعرض كل وظيفة للتكنولوجيا الذكية. يمكن أن يساعد النتائج الفرد في فهم ما هي المهارات المطلوبة والوظائف التي قد تؤثر عليها التكنولوجيا الذكية.
A Python tool that analyzes daily equity price data to identify potential reversal signals occurring on Wednesdays.
يستورد هذا البرنامج بيانات أسعار الأسهم التاريخية ويطبق فلترًا إحصائيًا لتحديد أنماط الانعكاس التي تظهر غالبًا يوم الأربعاء. يقوم بتنظيف البيانات، ويحسب مؤشرات رئيسية مثل المتوسطات المتحركة والتقلب، ثم يحدد الأيام التي يختلف فيها تحرك السعر بشكل كبير عن الاتجاه العام. ينتج تقريرًا مختصرًا يضم تواريخ الانعكاس، وقوة الإشارة، ونقاط الدخول أو الخروج المقترحة للمتداولين. صُمم هذا الأداة للباحثين الكميين والمتداولين الذين يرغبون في وسيلة سريعة وقابلة للتكرار لاكتشاف نقاط التحول منتصف الأسبوع في السوق. لا تتطلب الأداة أي قاعدة بيانات، وتعمل بكفاءة باستخدام مكتبات بايثون القياسية مثل NumPy وPandas. تتميز بقدرتها على التعامل مع مجموعات بيانات كبيرة بسرعة، وتوفر واجهة سهلة الاستخدام للنتائج التي يمكن دمجها في استراتيجيات التداول أو التحليل الفني. كما تتيح إمكانية تعديل معايير الفلترة لتناسب أساليب التداول المختلفة، مما يجعلها أداة مرنة ومتكاملة في بيئة التحليل المالي.
This project provides a training dataset for fine-tuning open-source Large Language Models (LLMs) to understand Gerbil Scheme, a dialect of Scheme built on Gambit.
يحتوي المجموعة على 5,970 إدخالاً، بما في ذلك وثائق رسمية، ووصفات كود مُصدقة، ووثائق وظيفية API، ومصادر تعليمية. تغطي المواضيع المختلفة مثل تحليل JSON، التعامل مع الأخطاء، وأنماط الأمان. يتم توفير البيانات في صيغات ChatML/ShareGPT وألپاكا، مما يجعلها متوافقة مع أدوات LoRA الشهيرة مثل LLaMA-Factory وAxolotl.
MooseFS is a petabyte-scale distributed file system that delivers reliable, fault‑tolerant, POSIX‑compliant storage across commodity servers.
يُقدِّم MooseFS نظام ملفات موزَّع على نطاق البيتابايت يوفِّر تخزينًا موثوقًا ومتينًا على خوادم تجزئة. يُظهر للمستخدمين هيكلًا شجريًا واحدًا مع سمات POSIX كاملة، بما في ذلك الأذونات، والوقت، والملفات الخاصة، والروابط الرمزية، والملفات الصلبة. يضمن النظام تكرار البيانات على خوادم متعددة، ما يمنع فقدان البيانات ويعطي مرونة في التوسع عبر إضافة وحدات تخزين جديدة دون توقف. يدعم MooseFS عمليات القراءة والكتابة المتوازية، ويتيح إنشاء لقطات ذرية للملفات حتى أثناء التعديل. كما يوفِّر ميزات التحكم في الوصول عبر عناوين IP وكلمات مرور، وتطبيق سياسات تخزين مختلفة عبر فئات التخزين، مع حدود استهلاك لكل دليل. يتيح النظام أيضًا تخزينًا ككتل (mfsbdev) وتوفير حاويات سلة المهملات للملفات المحذوفة. يُعد MooseFS خيارًا مثاليًا للبيئات التي تتطلب موثوقية عالية، وتوسيع سعة التخزين ديناميكيًا، وإدارة دقيقة للموارد.
The Lag Lab project aims to identify and exploit lags in cryptocurrency price data across various exchanges, providing a tradeable edge.
هذا المشروع يهدف إلى تحديد وتحليل التأخيرات في البيانات السعرية للعملات الرقمية على مختلف البورصات. يستخدم المشروع kombinación من جمع البيانات، التحليل، والتمثيل لتحديد الفرص التجارية المحتملة. من خلال فهم هذه التأخيرات، يمكن للمستثمرين اتخاذ قرارات أكثر ذكاءً و потенسيالًا للربح من الفروق في بيانات الأسعار على مختلف البورصات.
A platform that migrates on‑premises ClickHouse data to an AWS data lake using StarRocks and Apache Iceberg, providing real‑time ingestion and unified querying.
يُنقل النظام بيانات من مجموعتين من قواعد بيانات ClickHouse في بيئة محلية—أولى تحتوي على بيانات المخزون القابلة للتغيير، والثانية على بيانات الأحداث الثابتة—إلى مستودع بيانات قائم على السحابة في AWS. يستخدم النظام مستوعباً يعتمد على Kafka لدمج البيانات في مجموعة StarRocks، مما يتيح جداول تحليل مشتركة على S3، بينما تُكتب بيانات الأحداث الثابتة إلى جداول Apache Iceberg على S3. يوفر خدمة الاستعلام المخصصة واجهة موحدة يمكنها قراءة جداول StarRocks الأصلية وجداول Iceberg عبر فهرس خارجي. يدعم النظام دمج البيانات في الوقت الفعلي مع ملء التاريخ، مما يتيح مرحلة انتقالية مع تقليل الانقطاع. صُمم النظام لمهندسي البيانات ومهندسي البنية التحتية الذين يحتاجون مساراً موثوقاً وقابلاً للتوسع نحو تحليلات السحابة الحديثة.
The corpora project is designed to extract vocabulary from documents and classify it into structured JSON for various applications.
يعد مشروع corpora أداة لاستخراج الكلمات من الوثائق وتصنيفها في صيغة JSON مُقسَّمة. يمكن استخدام هذا المشروع في معالجة اللغات الطبيعية و تحليل النصوص وغيرها من المهام ذات الصلة. يستخدم المشروع لغة بايثون كأولى اللغة الأساسية، ويستند على مكتبات مثل Pydantic و Rich لتطوير نموذج البيانات وتشكيله.
The AI Displacement Tracker is a dataset that tracks workforce reductions attributed to AI, providing structured and source-backed data on the impact of automation.
هذا المشروع يهدف إلى تقديم قاعدة بيانات شاملة و دقيقة حول استبدال العمال بسبب اعتماد الذكاء الاصطناعي. يحتوي المترقب على قياسات مثل عدد العمال المنزوعين، والقضايا المؤكدة والمحتملة، ومجموعة الحوادث المسجلة. كل نقطة بيانات مصدرها إعلانات الشركات وتضم درجات التأشير و الوظائف المهنية المتأثرة. يُظهر المنهج وراء القاعدة البيانية صراحةً ومتاح للنظر.
This project is a car sales repository, likely intended for developers or data analysts working on automotive-related projects.
هذا المشروع هو مخزن البيانات المتعلقة ببيع السيارات. بدون مزيد من المعلومات، صعب تحديد الغرض أو الوظيفة لهذا المشروع. قد يكون بداية للعمل على تطبيقات أو واجهات تعمل مع بيانات بيع السيارات.
Provides Grafana dashboards for monitoring and billing AI token usage in VMware Tanzu AI Services.
يقدم هذا المشروع لوحات معلومات Grafana مُعدة مسبقاً تساعد الفرق على مراقبة استهلاك الرموز في خدمات الذكاء الاصطناعي ضمن منصة VMware Tanzu. تجمع اللوحات مجموعات الرموز حسب المنظمة، والمساحة، ونموذج LLM، وخطة الخدمة، مع تفصيل للرموز المدخلة والمخرجة والمجموع الكلي. يمكن للمستخدمين تصفية البيانات حسب النموذج، والنقطة النهائية، وفترة زمنية محددة، مع عرض إحصائيات ملخّصة، ومخططات شريطية، ومخططات زمنية. تُستخدم عمليات الانضمام PromQL مع مؤشرات الحاوية لتحويل معرفات Cloud Foundry إلى أسماء قابلة للقراءة. تُظهر اللوحات أيضاً قسماً للبيانات الخام للفضاءات التي لا توجد فيها تطبيقات تعمل. صُممت هذه الأدوات لفِرق DevOps وAI Ops لتسهيل تحسين استهلاك الذكاء الاصطناعي ودعم الفوترة الدقيقة عبر وحدات الأعمال. بفضل المرونة في التصفية والتقارير، يمكن للمديرين اتخاذ قرارات مبنية على بيانات دقيقة حول تكاليف الذكاء الاصطناعي.
This project provides a market analysis toolkit for options trading, offering features such as HMM regime detection, technical indicators, phase detection, and opportunity assessment.
هذا المشروع يوفّر أداة تحليل السوق للاستثمار في خيارات، وتضم ميزات مثل اكتشاف الأنماط باستخدام النماذج اللازمة، والمتغيرات الفنية، واكتشاف المراحل، وتقييم الفرص. هذه الأدوات تساعد المستثمرين على اتخاذ قرارات أكثر دقة بناءً على تفاصيل حول السوق.
A high-performance, non-blocking stream engine that replaces traditional message brokers with deterministic replay and zero-copy efficiency.
يُقدّم هذا النظام محركاً غير متزامن للبيانات يعتمد على السجلات، مُصمم لتلبية احتياجات معالجة تدفقات البيانات ذات الكثافة العالية والحد الأدنى من التأخير. يتيح إعادة تشغيل التدفق بشكل دقيق، مع دعم للمعالجة المسبقة للبيانات، ما يسهل تدريب نماذج التعلم الآلي على بيانات حقيقية دون الحاجة إلى إعادة تشغيل متكررة. يعتمد على نقل البيانات بدون نسخ (zero‑copy) ويستفيد من واجهة io_uring لتحقيق أداء عالٍ مع استهلاك منخفض للموارد. يضع تتبع الإزاحة على جانب العميل، مما يقلل الحمل على الخادم ويمنح المستهلكين تحكمًا أكثر دقة في سرعة استهلاك البيانات. يُصمم بنية تخزين قابلة للنقل على نظام الملفات، ما يتيح استعادة سريعة للبيانات في حالات الكوارث عبر نسخ الملفات فقط. يدمج مع بيئات Kubernetes بشكل طبيعي، مع دعم للعمليات المؤقتة وإعادة التوجيه الآمن للبيانات إلى خدمات متعددة دون الحاجة إلى منطق تطبيق إضافي.
A Python-based system that monitors livestock behavior in real time, using sensor data to detect activity patterns and dynamically adjust sampling rates for energy efficiency.
يُعد LiveEdge نظامًا قائمًا على لغة بايثون يراقب سلوك المواشي في الوقت الحقيقي، مستفيدًا من بيانات المستشعرات لتحديد أنماط النشاط. يستخدم نماذج تعلم الآلة لتصنيف السلوكيات، ويضبط معدلات أخذ العينات تلقائيًا لتقليل استهلاك الطاقة. يوفر المنصة تحليلات بصرية عبر مخططات تفاعلية وتقارير مفصلة، مما يمكّن المزارعين من اكتشاف مشكلات الصحة قبل تفاقمها. صُمم خصيصًا لمديري المزارع والباحثين الزراعيين، ويقلل من تكاليف صيانة المستشعرات مع تحسين رفاهية القطيع. بفضل تقنية أخذ العينات التكيفية، يطيل عمر البطاريات ويقلل العبء التشغيلي. يُمكن نشره بسهولة على شبكات المستشعرات الحالية، ويُدعم التكامل مع أنظمة إدارة المزارع. يدمج LiveEdge بين الذكاء الاصطناعي والتحليل البياني لتقديم حلول مراقبة فعّالة ومتكاملة.
ds-pal is a dataset analysis platform designed for data scientists to perform clustering and visualization tasks.
هي منصة تحليل البيانات المفتوحة التي تسمح للمختصين في علم البيانات بتحليل البيانات باستخدام تقنيات التجميع والتصوير. توفر المنصة واجهة مستخدم سهلة الاستخدام لتحميل وتجهيز وتحليل البيانات الكبيرة. تستخدم المنصة مكتبات شعبية مثل scikit-learn و plotly للقيام بالتطبيقات المعقدة في تحليل البيانات.
This project is an AI dataset, but its purpose and target audience are unclear without further information.
لا توجد وصفة متوفرة لهذا المشروع. بدون مزيد من السياق أو التفاصيل، صعب فهم ما يقوم به هذا المشروع أو من هو المستهدف.
This project is designed to analyze and provide insights on energy markets.
يبدو أن مشروع nickypro__energy-markets هو أداة لتحليل وتفسير اتجاهات أسواق الطاقة. مع عدم وجود معلومات إضافية، يصعب تحديد سماتها أو وظائفها المحددة. قد تشمل جمع البيانات وประมولتها وتحليلها لتقديم نظرة مفيدة للمستخدمين.
The SARdine project is designed to facilitate the inspection and exploration of Synthetic Aperture Radar (SAR) data.
هذا المشروع يهدف إلى تسهيل فحص وتحليل البيانات المُستخدمة في تقنيات الرادار التكيفية (SAR). يمكن للمستخدمين استخدام SARdine لتحليل وتصفية البيانات، مما يجعلها أكثر سهولة للعمل معها. يستخدم المشروع مجموعة من التكنولوجيات الويب، بما في ذلك React و Vite، لتقديم واجهة مستخدم تفاعلية.
This project is a Python data pipeline for downloading, parsing, and processing historical equity data from the Brazilian Stock Exchange (B3) for quantitative analysis or backtesting.
هذا المشروع هو مسار بيانات بروتوكول لتحميل وتحليل البيانات التاريخية من البورصة البرازيلية (B3) للتحليلات النوعية أو اختبار العودة
The case-locations project is designed to provide a tool for identifying and managing locations in various contexts.
هذا المشروع يستخدم FastAPI كإطار عمل، جنبا إلى جنب مع Gunicorn و Uvicorn للاستخدام في التوزيع. يعتمد على PostgreSQL كمنظومة إدارة قواعد البيانات، ويستفيد من مكتبة pandas في Python للتعامل مع البيانات. الهدف من هذا المشروع هو إنشاء أداة لإدارة المواقع بفاعلية يمكن استخدامها في تطبيقات متعددة.
This project analyzes high‑frequency oscillations in intracranial EEG recordings to aid seizure localization and prediction.
يُعالج البرنامج بيانات EEG داخلية لاكتشاف وتحديد التذبذبات عالية التردد (HFOs) التي تتجاوز 200 هرتز. يقوم بحساب طاقة التردد عبر خمس نطاقات ترددية حتى 500 هرتز، ويُرسم توزيع HFOs في الفضاء قبل وبعد اندلاع النوبة. كما يراقب البرنامج التغيرات الزمنية في طاقة HFOs خلال فترة 30 ثانية قبل الحدث الكهربائي. يتيح ذلك للباحثين والمهنيين في الطب العصبي تحديد منطقة اندلاع النوبة الرئيسية واستكشاف HFOs كمؤشرات مبكرة للانفجار. تم تصميم سير العمل للعمل مع أقطاب عمق أو شبكة تحت القشرة المتاحة تجاريًا، مع دعم معالجة الدُفعات للعديد من النوبات.
A dataset and analysis toolkit for comparing AI-generated and human supervisor feedback on medical students' clinical clerkship logs.
يقدّم هذا المشروع مجموعة بيانات مجهولة الهوية تتضمن تقييمات بنظام المقياس الخماسي لمقارنة التعليقات التي يولدها الذكاء الاصطناعي مع التعليقات التي يقدمها المشرف البشري على سجلات التدريب السريري للطلاب الطبيين. يتضمن الجزء الكمي بيانات تقييمية مبنية على معايير محددة، بينما يتضمن الجزء النوعي تعليقات المقيّمين مع رموز تحليلية وخرائط هرمية للمواضيع. يشتمل المشروع على نصوص برمجية مكتوبة بلغة R تسمح بمعالجة البيانات، إجراء اختبارات إحصائية، وإنشاء عروض مشتركة تجمع بين الأساليب الكمية والنوعية. يستهدف الباحثين في التعليم الطبي، محللي البيانات، ومطوري الذكاء الاصطناعي الذين يهمهم تقييم جودة التعليقات الآلية مقابل التعليقات البشرية. يحل المشروع مشكلة نقص الأدلة الشفافة والقابلة للتكرار حول فعالية التعليقات الآلية، ويعزز القدرة على استكشاف الأنماط الكمية والنوعية في النتائج. يميز المشروع بتركيزه على التكامل بين التحليل الكمي والنوعي، مما يتيح فهماً أكثر شمولاً لتأثير التعليقات على تجربة التعلم السريري.
A simulation framework that compares non‑probability survey estimators using quantile‑based covariate representations.
يقدم هذا المشروع دراسة محاكاة مقارنة بين مقدرات الاستطلاع غير الاحتمالية باستخدام تمثيلات متغيرات التوزيع على أساس الكمية. يتضمن تحليلًا لمقدرات الوزن العكسي (IPW)، والتقدير بالاستبدال (MI)، والتقدير المزدوج القوي (DR) تحت إعدادات مختلفة لتمثيل المتغيرات، مثل المتغيرات الأصلية، والمؤشرات الكمية عند الربع، والـ deciles، وغيرها. تُجرى المحاكاة على عينة غير احتمالية مستخرجة من مجتمع محاكاة يتضمن نتائج مستمرة ومتغيرة ثنائية، مع تشغيل 500 تكرار باستخدام الحوسبة المتوازية لضمان التكرار. يستهدف الباحثين في مجال الإحصاء والبحوث الاستطلاعية الباحثين الذين يحتاجون إلى تقييم دقة وأداء المقدرات في ظروف اختيار غير خطية أو غير متجانسة. يحل المشروع مشكلة صعوبة قياس الانحياز والتباين في تقديرات الاستطلاع غير الاحتمالية، ويقدم إطارًا قابلًا للتكرار لتجربة سيناريوهات مختلفة. يميز المشروع نفسه بتركيزه على تمثيلات الكمية الدقيقة والقدرة على تحسين التقديرات عبر استخدام شبكات كميات أكثر دقة مثل الـ deciles.
This tool automatically fetches and stores earnings call transcripts for S&P 100 companies, providing a daily updated JSON archive.
يستخرج المشروع نصوص مكالمات الأرباح لشركات S&P 100 باستخدام واجهة برمجة تطبيقات عامة، ويخزن كل نص في ملف JSON منظم. يتم تشغيل العملية تلقائياً كل يوم، ما يضمن تحديث الأرشيف بأحدث النصوص المتاحة. بالإضافة إلى ذلك، يحافظ المشروع على تقويم قابل للقراءة الآلية لمكالمات الأرباح القادمة لجميع شركات S&P 500، مع تحديثه كل صباح. تُعد البيانات جاهزة للتحليل، أو إعداد التقارير، أو دمجها في لوحات معلومات مالية. يمكن للمستخدمين تشغيل العملية يدويًا أو تحديد أسهم معينة عبر وسائط سطر الأوامر. يتيح هذا النهج الوصول السريع إلى معلومات مالية حيوية دون الحاجة إلى جمع يدوي أو الاعتماد على مصادر غير موثوقة.
This project is a production-grade data pipeline that extracts, normalizes, and structures alternative investment commitment data from U.S. public pension fund disclosures.
هذا المشروع هو خطط استخراج البيانات من الاستثمارات البديلة في التمويلات العامة للتقاعد في الولايات المتحدة. يجمع هذا الخطط البيانات من خمسة من أكبر التمويلات العامة في الولايات المتحدة، ويستخدم تقنيات محددة لاستخراج البيانات من صفحات الويب والملفات PDF. كما يقوم بتحديد الاستثمارات حسب strategie من خلال اسمها، ويتتبع كل بياناته حتى يمكن إعادة توجيهها إلى مصدرها، ويقدم تقارير جودة تشير إلى الأشكال غير المألوفة.
A stored procedure that performs priority-based statistics maintenance for SQL Server 2016 and later, optimizing query performance by updating the most stale statistics first.
يقوم الإجراء بتحديث إحصائيات قاعدة البيانات وفقاً لأولويات محددة، بحيث يتم تحديث الإحصائيات الأكثر تدهوراً أولاً لضمان تحسين أداء الاستعلامات. يدعم الإجراء حدود زمنية وإيقافاً لطيفاً مع تسجيل مفصل لتتبع التقدم واكتشاف أي انقطاع. يتيح خيارات متقدمة تعديل معدل العينة تلقائياً للإحصائيات الكبيرة وتشغيلها بالتوازي لتقليل زمن التنفيذ الكلي. يتوافق مع Azure SQL ويستطيع اكتشاف قيود الموارد وتقديم تحذيرات للمدراء. يندمج بسلاسة مع أطر الصيانة القائمة، ما يجعله بديلاً جاهزاً للإجراءات التقليدية لتحديث الإحصائيات. يضمن هذا الإجراء استقراراً أكبر في بيئات الإنتاج ويقلل من مخاطر توقف العمليات بسبب مهام الصيانة الطويلة. كما يوفر مرونة في التخصيص لتلبية احتياجات قواعد البيانات المتنوعة، من OLTP إلى مستودعات البيانات.
A SQL Server stored procedure that identifies and rebuilds heaps with forwarded records based on CPU impact.
يعمل هذا المخزن على فحص جميع الجداول التي تستخدم الكتل في قاعدة بيانات SQL Server للكشف عن السجلات الموجهة التي تتسبب في ضعف الأداء بسبب القراءة المزدوجة للبيانات. يتم ترتيب الكتل وفقًا لتأثيرها الفعلي على وحدة المعالجة المركزية، حيث يستند الترتيب إلى تحليل XML لخطط التنفيذ في Query Store لتحديد استهلاك CPU في عمليات المسح، ويُكمل ذلك بعدد مرات الوصول إلى المؤشرات الموجهة ومؤشرات الشدة الهيكلية. بعد ترتيب الكتل، يمكن للمخزن إعادة بناء الكتل ذات الأثر الأكبر، مع خيار العمل في وضع “الخطط فقط” أو إعادة بناء عبر الإنترنت، مع تسجيل إحصائيات قبل وبعد العملية للتحقق من الفعالية. يهدف هذا الحل إلى مساعدة مسؤولي قواعد البيانات على صيانة الكتل بطريقة مدفوعة بالبيانات، مما يقلل زمن الاستجابة للقراءات ويعزز أداء الاستعلامات العامة. كما يتضمن آليات أمان للتحقق من الحمل الكتابي على الكتل وتجنب التنافس على القفل، لضمان عدم تعطيل بيئات الإنتاج أثناء التنفيذ.
This project simulates and visualizes the homicidal chauffeur differential game using symbolic and numerical tools.
يُقدّم هذا المشروع محاكاة شاملة للعبة السائق القاتل، وهي لعبة تعقب‑تجنّب تقليدية في نظرية الألعاب التفاضلية. يتم استخدام الرياضيات الرمزية لاستنتاج استراتيجيات مثلى، ثم يُطبّق التكامل العددي لتوليد مسارات اللاعبين. تُعرض النتائج عبر رسومات تفاعلية تُظهر تطور السائق والفرار مع مرور الوقت، ما يتيح للمستخدمين تحليل سلوكيات اللعبة بوضوح. يُصمم النموذج ليكون سهل التعديل، بحيث يمكن للطلاب والباحثين تعديل المعلمات أو إضافة سيناريوهات جديدة داخل دفتر الملاحظات. يوفّر هذا المشروع حلاً عملياً لتعليم مفاهيم التحكم في الأنظمة الديناميكية، مع التركيز على التفاعل بين القائد والتابع. يميز المشروع بدمج الأدوات الرمزية والعددية في تجربة واحدة متكاملة، ما يجعله أداة قيمة للبحوث التعليمية والتطبيقية.
A command‑line tool that automatically crawls mobile app stores to collect user reviews for analysis.
يُعد هذا المشروع أداة سطر أوامر بسيطة تُكتب بلغة بايثون وتستعمل مكتبات Selenium وBeautifulSoup لتصفح صفحات متاجر التطبيقات وجمع مراجعات المستخدمين مع تقييماتهم وبيانات التعريف ذات الصلة. يُشغَّل من الطرفية ويقبل معلمات مثل معرّفات التطبيقات وفترات التاريخ، ثم يُخرج البيانات المُجمَّعة بصيغة JSON أو CSV لتسهيل معالجتها لاحقاً. صُمِّم لتلبية احتياجات المطورين والمسوقين والمحللين الذين يرغبون في الحصول على تعليقات فورية حول تطبيقاتهم أو تطبيقات المنافسين. يتعامل مع التصفح المتعدد الصفحات، وتحميل المحتوى الديناميكي، ويُطبِّق إجراءات بسيطة لتجاوز قيود التصفح الآلي. بفضل توفيره لبيانات مراجعات منظمة، يُمكنه دعم تحليل المشاعر، ورصد الاتجاهات، وتحديد أولويات الميزات المستقبلية.
This project is for financial management and analysis.
هذا المشروع يهدف إلى إدارة وتحليل المالية. يتيح للمستخدمين متابعة مصاريفهم وايراداتهم وإنقاذ أموالهم. يهدف المشروع إلى مساعدة الأفراد على اتخاذ قرارات مدروسة بشأن ميزانيتها.
A Python library that provides tools for analyzing the Hyperface fMRI dataset.
توفر هذه المكتبة مجموعة شاملة من الوظائف لتحميل ومعالجة وتصور مجموعة بيانات Hyperface للدماغ باستخدام التصوير بالرنين المغناطيسي الوظيفي. تتضمن الأدوات تنظيف الإشارات الخام واستخراج ميزات السلاسل الزمنية وتطبيق تقنيات تقليل الأبعاد. كما توفر خطوط أنابيب التعلم الآلي لتدريب المصنفات على أنماط النشاط الدماغي، مما يمكّن الباحثين من استكشاف الحالات المعرفية. يعتمد الكود على مكتبات علمية مشهورة لضمان القابلية للتكرار والأداء العالي. صُممت لتلبية احتياجات علماء الأعصاب وعلماء البيانات الذين يحتاجون إلى أداة جاهزة للتحليل fMRI. تبرز هذه المكتبة بقدرتها على التعامل مع بيانات معقدة وتقديم رؤى دقيقة حول النشاط الدماغي. كما توفر واجهة برمجية سهلة الاستخدام تسمح بتكامل سريع مع مشاريع البحث الحالية. تُعد هذه الأداة خياراً مثالياً لمن يسعون إلى تحليل بيانات fMRI بكفاءة وموثوقية.
This project provides a set of ETL processes for data cleaning on four datasets with intentional errors.
هذا المشروع يوفّر مجموعة من عمليات ETL لتنظيف البيانات في أربعة datasets مع أخطاء مقصودة. يتضمن المشروع أربع datasets مع أنواع مختلفة من الأخطاء، بما في ذلك القيم المفقودة والكرارات والformats غير المتسق والتقويمات غير الصحيحة.
Automates the periodic scraping of job listings from multiple platforms and forwards normalized data to a central API.
يُقدِّم هذا المشروع مجموعة من عمليات الأتمتة التي تُشغَّل وفق جدول زمني لجمع معلومات إعلانات الوظائف من مصادر متعددة مثل خلاصات RSS وصفحات الويب. تُحلل كل عملية البيانات الخام، تُحوِّلها إلى هيكل JSON موحد، ثم تُرسلها إلى واجهة برمجة تطبيقات مخصصة لتجميع الوظائف. يدعم النظام أسواقاً متعددة ويمكن توسيعه بسهولة لإضافة منصات جديدة مع جهد ضئيل. كما يدمج مع خدمة رسائل لتوفير تنبيهات فورية عند استيراد إعلانات جديدة. يُعد الحل مثالياً للفرق التي تحتاج إلى خط أنابيب موثوق ومُتحكم في الإصدارات لجمع بيانات الوظائف.
The mrigney__weatherAnalyzer project is designed for users to analyze and visualize weather data.
هذا المشروع يستخدم مكتبات لغة بايثون مثل NumPy و Pandas و Plotly و Streamlit لإنشاء تطبيق ويب يسمح للمستخدمين إدخال وتحليل البيانات الجوية. يوفر هذا الأداة ميزات للرؤية البيانية، مما يجعل من السهل على المستخدمين فهم وتفسير البيانات. على الرغم من عدم استخدام قاعدة بيانات محددة، يعتمد المشروع على البيانات المدخلة من قبل المستخدم أو APIs خارجية للاستفادة من المعلومات الجوية.
A data pipeline that scrapes UK Companies House, enriches company records with director, financial, and contact data, and scores each company for private‑equity acquisition suitability.
يقوم النظام بجمع قوائم الشركات النشطة من واجهة برمجة تطبيقات Companies House باستخدام رموز SIC والبحث بالكلمات المفتاحية، ثم يزيل النتائج غير الصحيحة. يُثري كل سجل بمعلومات المدراء، والرسوم العامة، وإشارات قابلية الصفقة، ويقدّر الإيرادات والـEBITDA عبر نموذج ثلاثي الأبعاد. يتم استخراج معلومات الاتصال من خلال تحديد مواقع الشركات على الويب واستنتاج أنماط البريد الإلكتروني. يُصنّف النظام الشركات وفقًا لنموذج استحواذ رباعي الأبعاد يوزع الوزن على الحجم، وجاذبية السوق، وملكية، وإشارات الصفقة، ليُنتج قائمة مرتبة. تُصدر النتيجة ملف Excel مكوّن من ستة أوراق، تتضمن خط أنابيب مرتّب، وبروفايلات مفصلة، ومعلومات الاتصال بالمدراء، وتقديرات مالية، وتحليل التوسيع، وإحصاءات ملخّصة. يهدف هذا الحل إلى محللي الاستثمار الخاص وفرق تطوير الشركات الذين يبحثون عن منهجية تحليلية منهجية للعثور على أهداف استحواذ على الشركات الصغيرة والمتوسطة في المملكة المتحدة.
Titanium is a data analysis and visualization tool for web applications.
هذا المشروع يستخدم لغة بايثون لإنشاء لوحة تحكم تفاعلية للمساعدة في استكشاف البيانات وتحليلها. يعتمد على مكتبات مثل BeautifulSoup و NumPy و Pandas و SciPy و Streamlit لتقديم واجهة مستخدم سهلة الاستخدام للتحليلات البيانية. هذا الأداة مصممة لأصحاب العمل الذين يحتاجون إلى تحليل بيانات معقدة.
A tool that calculates labor market tightness metrics from vacancy and unemployment data, providing insights for economists and policymakers.
يقدم المشروع مجموعة من السكربتات التي تستورد إحصائيات الشواغر والبطالة، وتقوم بتنظيف البيانات وتحويلها، ثم تحسب مؤشرات تشديد سوق العمل. يتضمن نماذج إحصائية يمكنها التنبؤ بمستويات التشديد المستقبلية استناداً إلى الاتجاهات التاريخية. يمكن للمستخدمين تشغيل الأداة من سطر الأوامر أو استيراد الدوال في خطوط تحليلهم الخاصة. الجمهور الأساسي يتألف من الاقتصاديين المتخصصين في سوق العمل، ومحللي السياسات، والباحثين الذين يحتاجون إلى مؤشرات موثوقة لتقييم ديناميكيات القوى العاملة. من خلال أتمتة معالجة البيانات والنمذجة، يقلل المشروع الجهد اليدوي ويعزز القابلية للتكرار. كما يوضح النتائج رسومات بيانية تسهل تفسير الأنماط الزمنية بسرعة.
Provides 30 pre‑matched color palettes, each containing 10 hex values for designers and developers.
يقدم هذا المشروع مجموعة مختارة من ثلاثين لوحة ألوان، كل منها يتضمن عشرة قيم هكس مختارة بعناية لتعمل بتناغم مع بعضها البعض. تغطي اللوحات مجموعة واسعة من الأجواء—من الألوان الدافئة والترابية إلى الألوان النيونية التقنية الباردة—وتشمل كل من الوضعين الفاتح والداكن. كل لوحة توفر مجموعة كاملة من رموز التصميم مثل الخلفية، السطح، الأساسي، التكميل، النص، الحدود، وخلفية الكود، مما يسهل توليد متغيرات CSS أو ملفات سمة لأي إطار عمل. يمكن للرسامين، مطوري الواجهة الأمامية، وفِرَق المنتج اختيار لوحة تتناسب مع علامتهم التجارية أو مزاجهم بسرعة، مما يوفر الوقت في البحث عن الألوان ويضمن التناسق البصري. تستلهم المجموعة من منتجات حقيقية وحركات تصميم، وتوفر مرجعاً عملياً لإنشاء واجهات مصقولة. إنها مورد خفيف الوزن جاهز للاستخدام يزيل التخمين في اختيار الألوان.
A data pipeline that extracts, cleans, validates, and stores MUFL fantasy league data for analysis and visualization.
يُقدّم هذا المشروع خط أنابيب بيانات متكامل لدوري MUFL للخيال الرياضي. يبدأ بجلب البيانات الأولية من مصادر خارجية، ثم يُنظف ويُعَدّها باستخدام مكتبة pandas، ويُصادق على بنية البيانات عبر نماذج pydantic لضمان الدقة. تُخزن السجلات المُعالجة في قاعدة بيانات PostgreSQL لتوفير تخزين موثوق وسهل الوصول للبيانات في المستقبل. يتيح واجهة Streamlit التفاعلية عرض لوحات معلومات تُظهر إحصائيات اللاعبين، أداء الفرق، وتحليلات الاتجاهات. يستهدف محللي الرياضة ومديري الدوريات، ويُسهل معالجة البيانات ويُقدّم رؤى قابلة للتنفيذ دون الحاجة لتدخل يدوي.
An OCR and retrieval pipeline that ingests large engineering PDFs into a searchable SQLite database and serves queries via an MCP server for LLM agents.
يُقدّم هذا المشروع خطاً كاملاً لمعالجة ملفات PDF الهندسية الضخمة مثل المناقصات والمواصفات. يبدأ بتقسيم المستندات الكبيرة إلى أقسام منطقية، ثم يُطبّق OCR واكتشاف التخطيط لتحويل كل قسم إلى JSON منظم. تُستخرج الجداول وتُحسّن باستخدام pdfplumber، وتُضاف بيانات التعريف التي يُستخرجها نموذج LLM عبر واجهة Anthropic. تُخزّن المحتويات الناتجة صفحةً بصفحة في قاعدة بيانات SQLite مع دعم FTS5 للبحث النصي الكامل، مع مسارات تتبع الأقسام وبيانات التعريف. يُقدّم خادم MCP أدوات للبحث والتنقل وإعادة الاستخراج، مما يمكّن وكلاء الذكاء الاصطناعي من استرجاع الأقسام ذات الصلة بسرعة.
A Python tool that automates bank statement reconciliation against internal accounting records.
تقوم هذه الأداة باستخراج بيانات كشف الحساب البنكي والسجلات المحاسبية الداخلية، ثم تطبق عمليات تطبيع وتحويل للبيانات لتسهيل المقارنة. تستخدم مكتبات معالجة البيانات القوية لتنظيف وتوحيد وتطابق المعاملات بكفاءة عالية، حتى مع مجموعات بيانات ضخمة. تُنتج تقارير مفصلة عن المطابقة، مع إبراز المعاملات غير المتطابقة أو المكررة، وتتيح تصدير النتائج إلى قاعدة بيانات PostgreSQL لتوثيق التدقيق. صممت لتلبية احتياجات فرق المالية التي ترغب في أتمتة عملية المطابقة بشكل متكرر، مع تقليل الأخطاء البشرية وتوفير الوقت. تدعم الأداة تشغيلات مجدولة ويمكن دمجها مع سير العمل الحالي عبر واجهة سطر الأوامر أو استدعاءات برمجية.
A simulation tool that models COVID‑19 spread and vaccine rollout scenarios for public health planning.
يُقدِّم المشروع إطاراً محاكاة تفاعلياً يتيح للمستخدمين نمذجة انتشار COVID‑19 تحت ظروف مختلفة وتقييم تأثير استراتيجيات توزيع اللقاح المتنوعة. يتضمن معلمات أساسية في علم الأوبئة مثل معدلات الانتقال، وفعالية اللقاح، وخصائص السكان لإنتاج منحنيات عدوى واقعية. يمكن للمستخدمين تعديل عوامل السياسة—مثل سرعة التوزيع، ومجموعات الأولوية، والتدخلات غير الدوائية—لملاحظة كيف تتغير النتائج مع مرور الوقت. يُخرج الأداة لوحات معلومات مرئية وملخصات إحصائية تساعد أصحاب المصلحة في تقييم المخاطر واحتياجات الموارد. صُممت لتلبية احتياجات الباحثين وصناع القرار الذين يحتاجون إلى وسيلة مرنة ومبنية على البيانات لاستكشاف سيناريوهات الصحة العامة.
A simulation tool that models collateralized debt obligations for financial analysis.
يُقدِّم هذا المشروع إطاراً شاملاً لمحاكاة سندات الدين المضمونة (CDOs). يتيح للمستخدمين تحديد مجموعات الأصول الأساسية، وبنى القطاعات، وسيناريوهات ارتباط الافتراضات. تقوم محرك المحاكاة بتوليد توزيعات الخسائر ومقاييس أداء القطاعات عبر أفق زمني متعدد. صُمم خصيصاً للمهنيين الماليين، ويساعد في تقييم مخاطر الائتمان، وتسعير المنتجات، ومتطلبات رأس المال التنظيمي. يدعم واجهة المستخدم تشغيلات الدُفعات وتوليد تقارير مفصلة، ما يجعله مناسباً للبحوث والبيئات الإنتاجية على حدٍ سواء. يدمج الأداة نماذج إحصائية متقدمة لتقدير احتمال الافتراض، مع إمكانية تخصيص معلمات السوق لتجارب سيناريو متقدمة. كما يوفر أدوات تحليل بصري لتفسير النتائج وتسهيل اتخاذ القرار.
A simulation tool that models Amazon's supply chain operations to analyze logistics performance.
تُقدِّم هذه الأداة محاكاة مفصلة لشبكة الخدمات اللوجستية في أمازون، مما يتيح للمستخدمين نمذجة تدفقات المخزون، ومسارات النقل، وعمليات مراكز التوزيع. وتوفر تحليلًا قائمًا على السيناريوهات، مما يتيح تقييم تأثير التغييرات في الطلب، والموارد البشرية، أو مسارات التوصيل على مؤشرات الأداء الرئيسية مثل أوقات التسليم والتكاليف. تساعد الرسوم التوضيحية التفاعلية المستخدمين على تتبع حركة البضائع عبر الشبكة في الوقت الحقيقي. صُممت الأداة للمحللين والباحثين الذين يحتاجون إلى اختبار الفرضيات وتحسين استراتيجيات سلسلة الإمداد. كما تدعم تصدير النتائج للقيام بتحليلات إحصائية إضافية أو إعداد تقارير مفصلة.
Aggregates activity logs from multiple sources into a unified format for analysis.
يعمل هذا البرنامج على جمع بيانات النشاط من مصادر متعددة وتوحيدها في تنسيق منظم واحد. يدعم تنسيقات إدخال متعددة ويمكن تكوينه لسحب السجلات من ملفات محلية، أو واجهات برمجة تطبيقات عن بُعد، أو مصادر تدفق بيانات. بعد التجميع، يُحوَّل الناتج إلى JSON أو CSV، ما يسهّل تحليله أو إعداده للتقارير. يهدف إلى مساعدة المطورين ومديري الأنظمة في مراقبة سلوك المستخدم، واستخدام النظام، ومتطلبات الامتثال، مع تقليل تعقيد التعامل مع مصادر السجلات المتعددة. يقدّم نقطة إدخال موحدة، مما يسرّع عمليات التجميع والتقارير ويقلل الأخطاء المحتملة في معالجة البيانات.
A learning environment that demonstrates how to ingest sensor data into the ELK stack, perform anomaly detection with machine learning, visualize results in Kibana, and trigger alerts with ElastAlert2.
يُقدّم هذا النموذج التجريبي مساراً كاملاً للصيانة التنبؤية: تُستورد ملفات CSV الخاصة بالمستشعرات عبر Logstash إلى Elasticsearch، حيث تُفهرس وتُستعلم. يُدرب حاوية Python نموذج LightGBM على البيانات التاريخية ويُنفذ استدلالاً دفعيًا لتحديد القيم الشاذة. تُعرض لوحات Kibana المقاييس والنتائج في الوقت الحقيقي، بينما يراقب ElastAlert2 تجاوزات العتبات ويُرسل إشعارات. يُعد الإعداد مثالاً عملياً للمهندسين في مجال البيانات، مهندسي DevOps، والمهندسين الصناعيين الذين يرغبون في تجربة مكونات ELK stack مع مراقبة تعتمد على التعلم الآلي. يحل المشكلة المتعلقة بالكشف المبكر عن الأعطال في معدات المصنع، مما يقلل من وقت التوقف وتكاليف الصيانة. البيئة مُحزمة بالكامل في حاويات، ما يجعلها سهلة الإطلاق والإيقاف للاستخدام التعليمي أو الاختبار.
A Python-based pipeline that reproduces the quantitative findings of the "Cognitive Obesity" research study.
يُقدّم هذا المشروع سير عمل متكامل وقابل للتكرار للتحقق من النموذج التوازني المضاف المقترح في دراسة "السمنة المعرفية". يقوم بتنزيل مجموعات بيانات ضخمة ومتنوعة تلقائياً، بما في ذلك NHANES وATUS ومصادر البنك الدولي وWHO GHO وOWID، ثم يُنفّذ إحصائيات وصفية، وتحليل الارتباط، ومقارنات التأثيرات الثابتة، وتحليل الانحدار بالعتبة، واختبارات جرانجر للسببية، وفحوصات الصلابة. يُقسّم التحليل إلى ثلاثة أقسام منطقية: تقريب أولي، ودراسة لوحة على مستوى الماكرو عبر 177 دولة، وتحقق على مستوى الفرد باستخدام بيانات الاستطلاع. يمكن للباحثين تشغيل كامل السلسلة مع سطر أوامر واحد، وإنشاء جميع الرسوم البيانية والجداول، واستكشاف مُقدّرات بديلة مثل DK‑SE، واتجاهات الدول، وFD‑IV. تم تصميم المشروع لتعزيز القابلية للتكرار والشفافية في البحث العلمي في مجال العلوم الاجتماعية.
Generate realistic synthetic enterprise financial data for machine learning, audit analytics, and system testing.
يُنتج DataSynth بيانات مالية صناعية واقعية ومتكاملة على نطاق واسع، معتمدًا على أسس إحصائية دقيقة. يُولِّد قيود دفتر الأستاذ العام، وتدفقات المستندات، وسجلات السجلات الفرعية، والمعاملات المصرفية، وسجلات الأحداث لعمليات التعدين، وتصدير الرسوم البيانية، مع تغطية أكثر من عشرين فئة عملية صناعية من شراء‑إلى‑دفع إلى تقارير ESG. يضمن النظام التماسك المحاسبي، ويعتمد على توزيعات تجريبية مثل قانون بنفورد والتوزيعات اللوغاريتمية، مع الحفاظ على التكامل المرجعي عبر أكثر من مائة جدول إخراج. يُصمم لأخصائيي البيانات، والمراجعين، ومختبري الأنظمة، ويقدم واجهة سطر أوامر، وخادم خفيف، وواجهة سطح مكتب لتسهيل التكوين والنشر. يتيح DataSynth إنشاء بيانات صناعية تحافظ على الخصوصية، ما يجعله مناسبًا لتدريب النماذج، واختبار أدوات الامتثال، ومحاكاة العمليات الصناعية دون كشف معلومات حساسة حقيقية.
A command‑line data ingestion tool that prepares and loads narrative topology data into a specialized engine.
توفر هذه الأداة خط أنابيب إدخال مبسطة لبيانات القصة الجغرافية. تستقبل الملفات الخام، وتتحقق من صحتها وفقاً للمعايير المحددة، ثم تحول البيانات إلى الصيغة المطلوبة لمحرك التخطيط. تدعم الأداة عمليات التنظيف والتغذية بالبيانات، وتقدم تقارير عن الأخطاء لضمان جودة عالية. تم بناؤها باستخدام Python وBash وTypeScript لتوفير واجهة مرنة للبرمجة التلقائية والتفاعل اليدوي. تستهدف المطورين ومهندسي البيانات الذين يحتاجون إلى عمليات إدخال موثوقة ومتكررة لتحليلات القصة. تميزها تكاملها مع محرك القصة الجغرافية وتسهيل إعداد تدفقات العمل دون الحاجة إلى إعدادات معقدة.
A curated SQLite database of Greek vocabulary at CEFR B1 level, including verb conjugations and word categories.
يقدّم هذا المشروع قاعدة بيانات SQLite شاملة للمفردات اليونانية المصممة لمستوى CEFR B1. تتضمن أكثر من ألفين كلمة موزعة على جميع أجزاء الكلام، مع 580 كلمة مختارة بعناية في مستوى B1 تتضمن المقالات وفئات الموضوعات وعلامات جزء الكلام. كما تتضمن القاعدة 1,592 كلمة مأخوذة من شجرة المفردات في Duolingo و2,706 إدخالًا لتصريفات الأفعال لـ153 فعلًا عبر أزمنة الحاضر والماضي والمستقبل. تم إعداد جدول للجمل المثال لتوسيع المحتوى مستقبلاً. توفر السكربتات المقدمة إمكانية إنشاء القاعدة، ملئها، والتحقق منها بسهولة، ما يجعلها جاهزة للدمج في أدوات تعلم اللغة أو مشاريع البحث.