בינה מלאכותית ללא מגבלות: HelpfulAI — עוזר מקומי ואופליין ל-Windows
HelpfulAI — יישום שולחני ל-Windows שמריץ מודלים גדולים של שפה ישירות על המחשב שלכם, ללא חשבונות, מנויים או טלמטריה. הרעיון המרכזי — “בינה מלאכותית ללא מגבלות” חיבורי ענן: כל התשובות נוצרות מקומית, ואתם בוחרים את המודלים, הכללים ופרמטרי העבודה.
מה HelpfulAI יודע לעשות
- LLM מקומי (GGUF + llama.cpp)
עובד עם מודלים בפורמט .gguf דרךllama-cpp-python. ניתן לחבר כל קובץ מודל: מקלים 3B ועד חזקים 7–13B ומעלה (בגבולות המשאבים שלכם). - ממשק קולי אופליין
TTS עלpyttsx3(סינתזת דיבור) ו-STT עלVosk(זיהוי דיבור ללא אינטרנט). כפתורים: “אמור בדיקה”, “הפעל/כבה האזנה”. - כללי שיחה (system prompt)
לשונית נפרדת “כללים” עם עורך. כל טקסט מתוךrules.txtמתווסף אוטומטית לבקשה — אתם מגדירים את הסגנון והמסגרות של העוזר. כאן אפשר להגדיר כל מגבלה, או להסיר אותן.
העוזר האישי שלכם - ניהול מודלים
לשונית “מודלים”: בחירת תיקיית אחסון, הורדת מודלים פופולריים בלחיצה, חיבור.ggufמשלכם, הדבקת נתיב מהלוח, סטטוס המודל הפעיל. - צ’אט נוח
לשונית “צ’אט”: דיאלוג, שליחה ב-Enter, קליק ימני (העתקה/הדבקה), שינוי גודל גופן (A-/A+, Ctrl±, Ctrl0), תצוגה תקינה במסכי HiDPI. - אופליין מלא לאחר ההורדה הראשונית
האינטרנט נדרש רק להורדת מודלים וקול רוסי של Vosk. לאחר מכן — עבודה מקומית מלאה.
למי זה מתאים
- מפתחים ו-DevOps — רמזי קוד, ניתוח לוגים, יצירת סקריפטים;
- מהנדסים ואנליסטים — סיכום טקסטים, טיוטות מסמכים;
- אנשי אבטחת מידע — במסגרת משימות מותרות ובטוחות: למידה, ניתוח דוחות, סימולציית תרחישי הגנה;
- סטודנטים וכותבים — מבני מאמרים, הסברים, דוגמאות.
אנו תומכים בשימוש אחראי. HelpfulAI אינו מיועד לפעילות בלתי חוקית — אתם שולטים בכללים ובתרחישים במסגרת החוק והאתיקה.
מודלים נתמכים (דוגמאות)
פריסטים מוכנים בלשונית “מודלים” + אפשרות לחבר כל .gguf.
- Qwen-2.5-7B-Instruct (Q4_K_M) — איזון אופטימלי עבור 16GB RAM / CPU.
- Mistral-7B-Instruct v0.2 (Q4_K_M) — מהיר, “כללי”.
- קיימות גם גרסאות קלות: Phi-3-mini, Qwen-2.5-3B, StableLM-3B; לקוד — DeepSeek-Coder-1.3B.
- עם משאבים מתאימים ניתן לחבר מודלים גדולים יותר (Mixtral, Llama-3.x, Qwen-32B/72B ועוד).
דרישות מערכת
- מינימום: CPU x86_64 (4 ליבות), 8–16GB RAM (למודלי 7B ב-Q4_K_M), SSD עם 10–15GB למודלים.
- מומלץ: 16–32GB RAM.
- מערכת הפעלה: Windows 10/11.
התקנה והפעלה
- הורידו את ארכיון היישום וחלצו לתיקייה נוחה.
- הריצו
MakeItWork_311.bat
— ייצור סביבה וירטואלית, יתקין תלויות ויבנה EXE.
חלופה לפיתוח:run_dev.bat(הרצה מהמקור). - פתחו את היישום.
התחנה הראשונה — לשונית “מודלים”:- בחרו תיקייה למודלים (אליה יירדו קובצי
.gguf). - הורידו אחד מהמודלים המוצעים או חברו
.ggufמשלכם (יש כפתור “הדבק נתיב .gguf” מהלוח). - לחצו “טען מודל פעיל”.
- בחרו תיקייה למודלים (אליה יירדו קובצי
- לשונית “קול” → “הורד Vosk RU 0.22” (ל-STT).
הכפתור “אמור בדיקה” בודק TTS; “הפעל האזנה” — זיהוי דיבור אופליין. - לשונית “כללים” — הגדירו סגנון ומגבלות (
rules.txt) לפי הצרכים. - חזרו ל-“צ’אט” — כתבו בקשות, שלחו ב-Enter.
“בינה מלאכותית ללא מגבלות”: מה זה אומר בפועל
- בלי ענן ומנויים. ללא חשבונות ושרתים חיצוניים — הנתונים נשארים אצלכם.
- כללים משלכם. אתם מגדירים את התנהגות העוזר ב-
rules.txt. רוצים מינימום מסגרות? עשו פרומפט קצר וניטרלי. - מודלים משלכם. חברו בדיוק את קובצי ה-
.ggufשמתאימים לאיכות ולמשאבים — מקלים ועד מתקדמים. - פרמטרים משלכם. ב-
config.jsonניתן להגדיל הקשר (llm_n_ctx), אורך תשובה (gen_max_tokens) ועוד.
טיפים לביצועים על 16GB RAM / CPU
- בחרו קוונטיזציה Q4_K_M (יחס מיטבי “איכות/זיכרון”).
- ב-
config.jsonהגדירו:"llm_n_threads": 4, "gen_max_tokens": 768, "gen_temperature": 0.6(אם התשובות נקטעות — הגדילו את
gen_max_tokens.) - למהירות גבוהה יותר — נסו Mistral-7B-Instruct במקום אפשרויות “כבדות” יותר.
- לפי הצורך ניתן לעדכן את
llama-cpp-pythonלבנייה עם offload ל-GPU ולחבר גרסת CUDA.
שאלות נפוצות
הצ’אט “שותק”.
בדקו שטעון קובץ .gguf ספציפי (בסטטוס — נתיב לקובץ, לא לתיקייה). הכפתור “טען מודל פעיל” צריך להציג “המודל נטען”.
הקול מבקש להוריד Vosk למרות שכבר הורד.
בגרסה החדשה נתיב מודל Vosk נשמר ב-%APPDATA%\\HelpfulAI\\vosk_models ונטען אוטומטית בעת התחלת האזנה. אם צריך — הפעילו מחדש את היישום ולחצו “הורד Vosk RU 0.22” שוב (ייקח שניות: בדיקה/עדכון נתיב).
איך “להרפות” את המגבלות של המודל?
קצרו את הטקסט ב“כללים”, השתמשו במודלי base (לא-instruct) או הגדילו את אורך התשובה. זכרו שימוש אחראי.
תוכניות פיתוח
- עדכונים אוטומטיים ו“ערוץ” גרסאות יציב.
- האצה חומרתית (CUDA/OpenCL) ופריסטים נוחים יותר ל-GPU.
- ערכות נושא והגדרות יצירה מתקדמות ב-GUI.
סיכום
HelpfulAI הוא באמת “בינה מלאכותית ללא מגבלות” של ענן ומנויים: פרטי, ניתן להתאמה, עוזר אופליין לעבודה יומיומית. אתם בוחרים מודלים וכללים — מקבלים סגנון ואיכות מתאימים, בלי להעביר נתונים מחוץ למחשב האישי.
מוכנים לנסות? הורידו את הארכיון, בחרו תיקיית מודלים, חברו .gguf — וגלו את הנוחות של בינה מלאכותית מקומית.