Lumina AI System

نظام ذكي لمعالجة الوثائق (RAG) يجمع بين خصوصية البيانات والأداء السحابي العالي.

تصفح الكود المصدري (GitHub)
Lumina Interface

التحديات الهندسية والحلول

عند بناء نظام "محادثة مع المستندات"، التحدي الأكبر ليس في استخدام الذكاء الاصطناعي فحسب، بل في دقة الاسترجاع (Retrieval Accuracy) والحفاظ على خصوصية البيانات. إليك كيف قمت بهندسة الحل من الصفر:

1. معالجة البيانات (Ingestion Pipeline)

بدلاً من إرسال الملفات للسحابة، قمت ببناء Pipeline محلي باستخدام LangChain. النظام يقوم بتقسيم ملفات PDF إلى "أجزاء دلالية" (Semantic Chunks) مع تداخل (Overlap) ذكي، مما يضمن أن السياق لا يضيع بين الفقرات، وهو أمر حيوي لدقة الإجابة لاحقاً.

2. التخزين المتجهي (Vector Store)

لضمان السرعة والخصوصية، استخدمت ChromaDB محلياً. يتم تحويل النصوص إلى متجهات رياضية (Embeddings) باستخدام نماذج HuggingFace الخفيفة. هذا يسمح بالبحث عن "المعنى" وليس "الكلمات المفتاحية" فقط، وبسرعة استجابة تقاس بالمللي ثانية.

3. الاستدلال الهجين (Hybrid Inference)

صممت نمط "استراتيجية" (Strategy Pattern) يمنح النظام مرونة عالية. يمكنه العمل بوضع Local (Ollama) للبيانات الحساسة جداً بدون إنترنت، أو التبديل لوضع Cloud (Groq) عندما نحتاج لقوة معالجة هائلة وسرعة خيالية.

كيف يعمل النظام (System Architecture)

1. Upload & Parsing

يتم رفع الملف واستخراج النصوص الخام وتنظيفها من الشوائب.

2. Embedding Generation

يتم تحويل النصوص إلى أرقام (Vectors) باستخدام نموذج `all-MiniLM-L6-v2`.

3. Semantic Search

عندما يسأل المستخدم، يبحث النظام عن أقرب الفقرات صلة بالسؤال (Cosine Similarity).

4. LLM Generation

يتم إرسال السؤال + الفقرات المستخرجة (فقط) إلى الـ LLM لتوليد إجابة دقيقة وموثقة.

Scroll to Top