בינה מלאכותית ללא גבולות

בינה מלאכותית ללא מגבלות: HelpfulAI — עוזר מקומי ואופליין ל-Windows

HelpfulAI — יישום שולחני ל-Windows שמריץ מודלים גדולים של שפה ישירות על המחשב שלכם, ללא חשבונות, מנויים או טלמטריה. הרעיון המרכזי — “בינה מלאכותית ללא מגבלות” חיבורי ענן: כל התשובות נוצרות מקומית, ואתם בוחרים את המודלים, הכללים ופרמטרי העבודה.


מה HelpfulAI יודע לעשות

  • LLM מקומי (GGUF + llama.cpp)
    עובד עם מודלים בפורמט .gguf דרך llama-cpp-python. ניתן לחבר כל קובץ מודל: מקלים 3B ועד חזקים 7–13B ומעלה (בגבולות המשאבים שלכם).
  • ממשק קולי אופליין
    TTS על pyttsx3 (סינתזת דיבור) ו-STT על Vosk (זיהוי דיבור ללא אינטרנט). כפתורים: “אמור בדיקה”, “הפעל/כבה האזנה”.
  • כללי שיחה (system prompt)
    לשונית נפרדת “כללים” עם עורך. כל טקסט מתוך rules.txt מתווסף אוטומטית לבקשה — אתם מגדירים את הסגנון והמסגרות של העוזר. כאן אפשר להגדיר כל מגבלה, או להסיר אותן.

    בינה מלאכותית ללא מגבלות
    העוזר האישי שלכם

  • ניהול מודלים
    לשונית “מודלים”: בחירת תיקיית אחסון, הורדת מודלים פופולריים בלחיצה, חיבור .gguf משלכם, הדבקת נתיב מהלוח, סטטוס המודל הפעיל.
  • צ’אט נוח
    לשונית “צ’אט”: דיאלוג, שליחה ב-Enter, קליק ימני (העתקה/הדבקה), שינוי גודל גופן (A-/A+, Ctrl±, Ctrl0), תצוגה תקינה במסכי HiDPI.
  • אופליין מלא לאחר ההורדה הראשונית
    האינטרנט נדרש רק להורדת מודלים וקול רוסי של Vosk. לאחר מכן — עבודה מקומית מלאה.

למי זה מתאים

  • מפתחים ו-DevOps — רמזי קוד, ניתוח לוגים, יצירת סקריפטים;
  • מהנדסים ואנליסטים — סיכום טקסטים, טיוטות מסמכים;
  • אנשי אבטחת מידע — במסגרת משימות מותרות ובטוחות: למידה, ניתוח דוחות, סימולציית תרחישי הגנה;
  • סטודנטים וכותבים — מבני מאמרים, הסברים, דוגמאות.

אנו תומכים בשימוש אחראי. HelpfulAI אינו מיועד לפעילות בלתי חוקית — אתם שולטים בכללים ובתרחישים במסגרת החוק והאתיקה.


מודלים נתמכים (דוגמאות)

פריסטים מוכנים בלשונית “מודלים” + אפשרות לחבר כל .gguf.

  • Qwen-2.5-7B-Instruct (Q4_K_M) — איזון אופטימלי עבור 16GB RAM / CPU.
  • Mistral-7B-Instruct v0.2 (Q4_K_M) — מהיר, “כללי”.
  • קיימות גם גרסאות קלות: Phi-3-mini, Qwen-2.5-3B, StableLM-3B; לקוד — DeepSeek-Coder-1.3B.
  • עם משאבים מתאימים ניתן לחבר מודלים גדולים יותר (Mixtral, Llama-3.x, Qwen-32B/72B ועוד).

דרישות מערכת

  • מינימום: CPU x86_64 (4 ליבות), 8–16GB RAM (למודלי 7B ב-Q4_K_M), SSD עם 10–15GB למודלים.
  • מומלץ: 16–32GB RAM.
  • מערכת הפעלה: Windows 10/11.

התקנה והפעלה

  1. הורידו את ארכיון היישום וחלצו לתיקייה נוחה.
  2. הריצו MakeItWork_311.bat
    — ייצור סביבה וירטואלית, יתקין תלויות ויבנה EXE.
    חלופה לפיתוח: run_dev.bat (הרצה מהמקור).
  3. פתחו את היישום.
    התחנה הראשונה — לשונית “מודלים”:
    • בחרו תיקייה למודלים (אליה יירדו קובצי .gguf).
    • הורידו אחד מהמודלים המוצעים או חברו .gguf משלכם (יש כפתור “הדבק נתיב .gguf” מהלוח).
    • לחצו “טען מודל פעיל”.
  4. לשונית “קול”“הורד Vosk RU 0.22” (ל-STT).
    הכפתור “אמור בדיקה” בודק TTS; “הפעל האזנה” — זיהוי דיבור אופליין.
  5. לשונית “כללים” — הגדירו סגנון ומגבלות (rules.txt) לפי הצרכים.
  6. חזרו ל-“צ’אט” — כתבו בקשות, שלחו ב-Enter.

“בינה מלאכותית ללא מגבלות”: מה זה אומר בפועל

  • בלי ענן ומנויים. ללא חשבונות ושרתים חיצוניים — הנתונים נשארים אצלכם.
  • כללים משלכם. אתם מגדירים את התנהגות העוזר ב-rules.txt. רוצים מינימום מסגרות? עשו פרומפט קצר וניטרלי.
  • מודלים משלכם. חברו בדיוק את קובצי ה-.gguf שמתאימים לאיכות ולמשאבים — מקלים ועד מתקדמים.
  • פרמטרים משלכם. ב-config.json ניתן להגדיל הקשר (llm_n_ctx), אורך תשובה (gen_max_tokens) ועוד.

טיפים לביצועים על 16GB RAM / CPU

  • בחרו קוונטיזציה Q4_K_M (יחס מיטבי “איכות/זיכרון”).
  • ב-config.json הגדירו:
    "llm_n_threads": 4,
    "gen_max_tokens": 768,
    "gen_temperature": 0.6
    

    (אם התשובות נקטעות — הגדילו את gen_max_tokens.)

  • למהירות גבוהה יותר — נסו Mistral-7B-Instruct במקום אפשרויות “כבדות” יותר.
  • לפי הצורך ניתן לעדכן את llama-cpp-python לבנייה עם offload ל-GPU ולחבר גרסת CUDA.

שאלות נפוצות

הצ’אט “שותק”.
בדקו שטעון קובץ .gguf ספציפי (בסטטוס — נתיב לקובץ, לא לתיקייה). הכפתור “טען מודל פעיל” צריך להציג “המודל נטען”.

הקול מבקש להוריד Vosk למרות שכבר הורד.
בגרסה החדשה נתיב מודל Vosk נשמר ב-%APPDATA%\\HelpfulAI\\vosk_models ונטען אוטומטית בעת התחלת האזנה. אם צריך — הפעילו מחדש את היישום ולחצו “הורד Vosk RU 0.22” שוב (ייקח שניות: בדיקה/עדכון נתיב).

איך “להרפות” את המגבלות של המודל?
קצרו את הטקסט ב“כללים”, השתמשו במודלי base (לא-instruct) או הגדילו את אורך התשובה. זכרו שימוש אחראי.


תוכניות פיתוח

  • עדכונים אוטומטיים ו“ערוץ” גרסאות יציב.
  • האצה חומרתית (CUDA/OpenCL) ופריסטים נוחים יותר ל-GPU.
  • ערכות נושא והגדרות יצירה מתקדמות ב-GUI.

סיכום

HelpfulAI הוא באמת “בינה מלאכותית ללא מגבלות” של ענן ומנויים: פרטי, ניתן להתאמה, עוזר אופליין לעבודה יומיומית. אתם בוחרים מודלים וכללים — מקבלים סגנון ואיכות מתאימים, בלי להעביר נתונים מחוץ למחשב האישי.

מוכנים לנסות? הורידו את הארכיון, בחרו תיקיית מודלים, חברו .gguf — וגלו את הנוחות של בינה מלאכותית מקומית.

Написать в TelegramНаписать в MAX