» «
מודל שפה גדול
מהם מודלי שפה גדולים, או LLM?



מודל שפה גדול (LLM), קיצור של Large Language Model, הוא ה"מוח" שמפעיל צ'אטבוט עוצמתי, כמו הצ'אטבוט ChatGPT, המייצר תוכן לבקשת המשתמשים ועושה זאת באמצעות מודל השפה הגדול GPT-4 ואחרים.

את התוכן מייצר הצ'אטבוט מדאטה עצום, כמות מידע אדירה שנשאבה מהאינטרנט ובאמצעותה אימנו את מודל השפה שמפעיל אותו. מודלי השפה GPT-3 ו-GPT-4, למשל, הם שמפעילים את הצ'אטבוט הכי מפורסם ChatGPT.

יש שאומרים שמודל השפה בעצם הוא לא יותר ממחולל מילים סטטיסטי. הם צודקים אבל גם טועים. כי מודל שפה יכול לחשב מצוין הסתברות של הופעת מילים שונות בכל משפט וכך לייצר משפטים חדשים, מילה אחר מילה, בשפה שבה הוא אומן על ידי המפתחים שלו. אבל זו דוגמה בלבד ואפילו קצת מטעה. כי סטטיסטיקה זה לא הכל וכנראה לא לגמרי המהות של העניין. המוח של מודל השפה, האופן שבו הוא בנוי והתובנות והביצועים שהוא יכול לנפק, הם משמעותיים הרבה יותר.

מודל כזה הוא תת-תחום של למידה עמוקה ומבוסס על רשת עצבית מלאכותית הבנויה בצורה דומה למוח האנושי. הרשת הזו היא בעלת כמות אדירה של פרמטרים, לרוב מיליארדים. הפרמטרים הללו הם ערכים מספריים שמסייעים לאלגוריתם ללמוד.

עוד ביטוי לגודלו הגדול של המודל הוא באימון שלו על מאות מיליוני מילים, בכמויות ענק של טקסט לא מתויג, בשיטת למידה שאינה מסתמכת רק על דוגמאות אנושיות, או מה שנקרא "למידה בפיקוח-עצמי".


#איך זה בדיוק עובד?
נניח ששאלתם שאלה, מודל השפה הגדול מניח את נוסח השאלה על שולחן הטיפולים שלו ובודק בדאטה שלו, במידע העצום שהוא אגר והמיר לקוד מתמטי (ראו אח"כ בתגית" טוקנים"), מה המילה שהכי סביר (מבחינת הסתברות) שתתחיל את התשובה. ואז הוא בודק מה המילה עם ההסתברות הכי גבוהה להופיע אחריה וכך הלאה. זה ייתן לו את התשובה הסבירה ביותר לשאלה.

למה הכי סבירה ולא הכי טובה? - כי הסתברות היא לעולם לא מושלמת וזו בדיוק הסיבה להזיות שנקבל לא פעם ממנועי בינה מלאכותית. אגב, אם תבקשו ממנו לבדוק את תשובתו, כל LLM ימצא ויפרט את שגיאותיו וגם יציע לתקן את המענה שנתן ובתיקון זה כבר יהיה הרבה יותר טוב.

ה-LLM משתמש בייצוג מתמטי של שפה טבעית באמצעות הסתברויות. כל מדען נתונים יאשר שהבסיס של מודלי שפה הוא היכולת שלהם לחשב הסתברות לכל משפט בשפה שבה הם אומנו ומהיכולת הזו נובע חלק משמעותי ביכולת שלהם לייצר משפטים חדשים, מילה אחר מילה.


#מודלי השפה הגדולים והבינה הג'נרטיבית
מודל השפה הגדול הוא בעצם הבסיס למהפכת הבינה הגנרטיבית שפרצה לחיינו בשלהי 2022-תחילת 23. מודלי השפה הגדולים הללו מסמנים קפיצת דרך של ממש ולמעשה הכניסו אותנו עמוק אל תוך העתיד.

הייתה זו IBM שפיתחה את אחד ממודלי השפה הראשונים. הוא נקרא ווטסון, על שם תומאס ווטסון, מייסד IBM. יש גרסה שאומרת שהוא קיבל את שמו משמו משם העוזר של שרלוק הולמס, ווטסון. מודל כזה, ממש כמו אותו עוזר, תמיד מסייע בחקר ובתשובות שונות, כיום של רבים ואצל שרלוק, לצרכי החקירות של הבלש הנודע.

מצוידים במודלים החדשים, הצ'אטבוטים המרשימים, כמו Claude ו-ChatGPT, מסרבים להיות לכם לווטסון. במקום זאת הם מפותחים כך שיהיו המוח, כלומר השרלוק שלכם, כשאתם וכמה זה אירוני, בתפקיד הווטסון או העוזר שלהם... אבל גם הלקוחות.

מודל שפה הוא שמאפשר לנו לבקש ממנו לסכם טקסטים, לענות על שאלות, לצייר או בעצם לייצר תמונות ו"צילומים", לחבר שירים, ליצור סרטונים או לכתוב קוד.

אז מודלי שפה גדולים אפשרו את קפיצת הדרך המדהימה של מהפכת ה-AI. אמנם הם רחוקים מלהיות מושלמים לחלוטין ועדיין פה ושם מקלקלים את ההתפעלות עם ההזיות המוכרות האלה שלהם, עובדות שגויות, מידע לא רלוונטי או מופרך ואפילו עלבונות נדירים. ומה שלא פחות מרגיז לעתים הוא הביטחון המלא שבו הם כותבים או מדברים אותן, שזה בדיוק מה שהופך את חשיפת ההזיות ובדיות הללו לכל כך קשה ומסוכנת...

כיום, המודלים הללו הולכים ומאפשרים צמיחה של עולם חדש, עולם סוכני ה-AI. הם ממוקדים בביצוע משימות ספציפיות, תגובה לסביבה ועוד תכונות מבטיחות. הכירו אותם בתגית "סוכני AI".


הנה מה שעושים המודלים, מנועי השפה הגדולים (מתורגם):

https://youtu.be/X-AWdfSFCHQ


כך פורצת מלחמת עולם ה-AI הראשונה:

https://youtu.be/nJjuYTpHQEE


מהו LLM?

https://youtu.be/iR2O2GPbB0E


המודל השולט בינואר 2025 - DeepSeek R1 הסיני:

https://youtu.be/hupQ97Or3jw


השוואת הצ'טבוטים הטובים, מנועי השפה הגדולים בסוף 2024 (עברית):

https://youtu.be/NanvGTQeO-g


כך פועל מודל השפה הגדול LLM:

https://youtu.be/iR2O2GPbB0E


כך בנויים ופועלים מודלי השפה הגדולים:

https://youtu.be/5sLYAQS9sWQ


יש להם גם חסרונות:

https://youtu.be/Gf_sgim24pI


הסבר מעמיק על מודלים גדולים של שפה ומה שהם הובילו (עברית):

https://youtu.be/-NIsUKUnxhA?long=yes


הפרמטרים והטוקנים באימון מודלים כאלו:

https://youtu.be/r17HV0TzAWw?long=yes


ובאופן סטטיסטי - כך פועל LLM:

https://youtu.be/LPZh9BOjkQs?long=yes
פרמטרים ב-AI
מהם ומה עושים הפרמטרים במודלי AI?



פרמטרים בלמידת מכונה (Machine Learning parameters), אם רוצים להבין מהם, אז כדאי לחשוב עליהם בתור המשתנים שקובעים את איכות ה"חשיבה" של מודל AI.

תפקידי הפרמטרים במודל שפה הם להבין הקשרים מורכבים בשפה, לחזות את המילה הבאה ברצף הטקסט שמפיק המודל ובסופו של דבר להצליח לייצר טקסט קוהרנטי (הגיוני) ומשמעותי.

אגב, במקום במילים זכרו שהטקסטים נבנים באמצעות טוקנים - ראו בתגית "טוקנים".

אבל עכשיו, אחרי שהסברנו בפשטות, הבה נפרט יותר ונרד לאיך זה נעשה: פרמטרים הם שלוכדים את הקשרים הסטטיסטיים שבין מילים ומושגי שפה שנמצאו בנתוני האימון. אפשר לדמות אותם למעין "כפתורים" בתוך המודל, שניתן לכוונם בכדי לשפר את יכולת המודל לעבד ולייצר שפה אנושית ומרשימה כל כך.

דמיינו שהידע על השפה מזוקק לתוך הפרמטרים ואז, בדומה למערכת סאונד שבה טכנאי הקול מכוונן את הכפתורים כדי להשיג את איכות הצליל הטובה ביותר, מהנדסי ה-AI מכוונים את מיליארדי הפרמטרים כדי להגיע לאיכות הגבוהה ביותר של התוצרים שהמודל ייצר.

בעצם, פרמטרים במודלים של בינה מלאכותית הם בקרי הגדרות פנימיות במודל שניתן לכוון במהלך האימון ועל ידי כך לשפר את יכולתו לעבד ולייצר שפה, תשובות ותגובות טובים יותר.

כלומר, ככל שיש במודל שפה יותר פרמטרים, גדלה גם חוכמתו ויכולתו לעשות שימוש במגוון המידע שנאגר בו. באמצעות הפרמטרים שולטים המהנדסים ברמה בה מודל AI מבין ויוצר שפה.

במהלך האימון, ערכי הפרמטרים מכוונים ומתעדכנים כדי לקודד דפוסים ממערכי הנתונים העצומים עליהם מאומנים המודלים הללו. הפרמטרים לוכדים את הקשרים הסטטיסטיים בין מילים ומושגי שפה שנמצאו בנתוני האימון. עבודה טובה איתם מאפשרת חשיבה טובה ומורכבת יותר ושימוש יותר מוצלח בידע שהמודל צבר, מה שיאפשר תגובות ותוצרים מדויקים יותר.

אגב, מספר הפרמטרים משקף בדרך כלל את גודל המודל. מודלים גדולים יותר יכולים להבין או לתפוס מורכבויות רבות יותר של שפה. מצד שני, הם גם יקרים יותר להפעלה, דורשים כוח מחשוב רב יותר ויש להם השפעה סביבתית רבה יותר, שהיא המחיר שאנו משלמים על כל ה-AI הזה.

אבל חשוב להבין שמספר הפרמטרים אינו המדד היחידי ליעילות המודל. לא פחות חשובה היא איכות הנתונים שעליהם אומן המודל. מודל קטן יותר שאומן על נתונים איכותיים יותר עשוי לבצע את המשימות טוב יותר ממודל גדול יותר שאומן על נתונים פחות מוצלחים.

כלומר, חיבור של כמות הפרמטרים, לצד איכות האימון, רמת הדאטה שעליו אומן המודל והיעילות הכוללת שלו הם המפתח ליכולות של מודל שפה.


הנה הפרמטרים במודל AI ואיך הם משתלבים בתמונה הכללית:

https://youtu.be/mnqXgojQCJI


פרמטרים וטוקנים הם לא הכל במודלים:

https://youtu.be/a1nqXQMOCks


והפרמטרים כחלק מהבינה היוצרת בכללה:

https://youtu.be/r17HV0TzAWw?long=yes
מולטי מודאליות
מהי מולטי מודאליות בעולם ה-AI?



זה אחד הפיתוחים המרגשים של עידן הבינה החדש ומה שמרגיש לא פעם כמו סרטי מד"ב מהיותר מתוחכמים. קוראים לזה מולטי-מודאליות (Multimodality) והוא בעצם היכולת של כלי AI לעבוד עם סוגי נתונים שונים, כמו טקסט, אודיו, קוד, וידאו ותמונות - גם כקלט וגם כפלט.

במקום להתמקד בסוג אחד בלבד של נתונים, מערכת רב-מודאלית מקבלת ומנתחת מידע ממקורות מגוונים, בכדי לקבל הבנה מעמיקה יותר של העולם הסובב אותה. מדובר בכלי ממוחשב שבדיוק כמו שבני אדם חווים את העולם דרך כל החושים והחוויות, לא רק מבין טקסט, אלא גם רואה תמונות וסרטים, מעבד ומנתח וידאו, מגלה הבנה מרחבית, שומע קולות וצלילים, מפענח קוד של תוכנה ומסוגל גם ליצור תכנים ותוצרים בכל המדיות הללו.

בדומה למוח האנושי, המשלב בטבעיות מידע מכל החושים, העולם של המערכות המולטי מודאליות ב-generative AI מציג יכולת שהיא עוד רכיב במהפכה הגדולה של מערכות בינה מלאכותית, מהפכונת שמאפשרת לעבד ולשלב כמה סוגי מדיה במקביל.

המערכות החדשות הללו מצוידות בשכבות מורכבות של פענוח ומפענחות את העולם פחות או יותר כמו מחשב-על. דוגמאות לא חסר. למשל עם צ'טבוט שבזכות ההבנה המרחבית המשופרת שלו מסוגל לזהות ולהוסיף כיתוב מדויק לעצמים שונים בתמונות עמוסות פריטים. או צ'טבוט שמנתח תמונות ומאפשר למשתמש לנהל עליהן דיון, או סוקר אינפוגרפיקה ונותן לה פרשנות קולית רלוונטית, בהתאם לרמת ההבנה של המשתמש או קהל היעד המבוקש. לכלי כזה יש גם כלי וידאו שמקבלים תמונה והנחייה כתובה (פרומפט) ומנפישים את התמונה לקליפ וידאו שכמו צולם בידי צוות צילום הוליוודי.

דוגמה נוספת היא כלי אינטראקציה רב-מודאלי כמו NotebookLM. הוא מאפשר למשתמשים לשתף איתו את המסך או המצלמה שלהם בזמן אמת. כך ניתן לקיים שיחות קוליות דמויות אדם, תוך כדי שמאפשרים ל-AI לצפות במסך ולעזור, תוך כדי מודעות להקשר ולתוכן.

אפילו תכונת זיהוי הפנים בסמארטפון שלכם היא תכונה שמשלבת היטב ראייה ממוחשבת, מיפוי תלת-ממדי ועיבוד נתונים מתקדם. ומאלה היא יוצרת פיצ'ר מדהים, בצד חווית משתמש פשטותה כמו מבט של שומר אנושי.

שילוב של צורות נתונים מרובות, כמו טקסט, תמונות ואודיו לתוך מערכת מאוחדת ורב-מודאלית היא שמאפשרת למודלים כמו Claude או GPT-4 לכתוב קוד כשמזינים לתוכו דיאגרמה ולמודלים שונים ליצור תמונות או סרטוני וידאו עם תיאורים.

את המהפכה המולטימודאלית אפשר לזהות בקלות בפלטפורמות כמו טיקטוק (TikTok) ואינסטגרם (Instagram), בהן משלבים סוגי מדיה מגוונים ומעבדים במגוון כלים, המשנים את הדרך בה אנו מספרים את הסיפור שלנו לעולם.


הנה הסבר היכולת המולטי-מודאלית:

https://youtu.be/97n1u66Shgg


כך עובדים מערכות מולטי מודאליות:

https://youtu.be/WkoytlA3MoQ


וההיפר מודאליות החדשה של גוגל מארינר:

https://youtu.be/KeUMm1xF3o0?long=yes
LoRA
מה זה LoRA ב-AI ולמה היא משמשת?



LoRA, ובעברית לורה (Low-Rank Adaptation) היא טכניקה בעולם ה-GenAI, העולם של הבינה המלאכותית היוצרת. היא מאפשרת כוונון עדין (fine-tuning) של מודלי AI גדולים (LLMs) וכלליים מדי, להתאמה של מודלים קיימים לצרכים ספציפיים בצורה יעילה וחסכונית במשאבים.

מפני שההסבר הטכני הזה כנראה לא מובן מדי, נסביר את הלורה באמצעות דוגמה פשוטה:

נניח שיש לנו מודל AI שיודע לג'נרט (generate), כלומר לצייר בבינה מלאכותית. אנחנו רוצים שהוא ייצר דמויות בסגנון אנימה או דמות מסוימת, שמשום מה הוא אינו מכיר, כי היא לא הייתה בדאטה שהוא אומן עליו.

לכן, במקום לבקש שיאמנו את המנוע, או המודל הגדול, מחדש על המון ציורי אנימה, או להמתין בסבלנות מתסכלת עד שיום אחד הוא כן יכיר את הסגנון או הדמות הספציפית, נשתמש בטכניקה שונה. טכניקת הלורה.

ב-LoRA, כדי ללמד את המודל על הסגנון הזה או על הדמות המסוימת שאנחנו רוצים, מאפשרים לנו לאמן אותו בעצמנו, בעזרת דוגמאות בודדות ש"נראה לו", כלומר נטען אליו ב-Upload.

השיטה היעילה הזו לכוונון עדין של מערכות AI, מתאימה במיוחד ליצירת תמונות ריאליסטיות, למשל, להתאמה של סגנונות עיצוביים או ליצירת דמויות עקביות בפרויקטים גרפיים, תוך שימוש בכמות קטנה יחסית של נתוני אימון.

כך נוכל ליצור, למשל את אותה דמות מדויקת, בסצנות שונות של סרטון שמייצר ה-AI או בציורי קומיקס רציפים שנוצרים כך.

כלומר,ה-LoRA נועדה להוסיף שכבת משקולות חדשה למודל המקורי, מבלי לשנות אותו, תוך כדי קיצור של זמן האימון ושיפור של הגמישות שלו.

ואגב, השיטה עובדת עבור כל רשת עצבית ולא רק עבור מודלי שפה גדולים LLMs (קראו עליהם בתגית "LLM").


הנה הסבר של רעיון ה-LoRA:

https://youtu.be/lixMONUAjfs


כך יוצרים LoRA במערכת ספציפית:

https://youtu.be/HfwFgkFCtpM


ויצירת לורה של דמות מוכרת:

https://youtu.be/KEv-F5UkhxU?long=yes

LLM

מודל היגיון
מהו מודל היגיון, או Reasoning Model?



מודל היגיון (Reasoning Model) הוא מודל שנועד לחקות את תהליך החשיבה האנושית ולהסיק מסקנות לוגיות על בסיס מידע נתון.

מודלי ריזונינג נוטים להיות כבדים יותר ולספק תובנות עמוקות, באמצעות הסקה רב-שלבית, מורכבת ומעמיקה. כמובן שהם משתמשים בטכניקות של בינה מלאכותית ולמידת מכונה כדי לנתח נתונים, לזהות דפוסים ולהסיק מסקנות מבוססות עובדות.

בדרך לתת תשובה מחלקים מודלי הגיון את פתרון הבעיה לשלבים, מתעכבים על התשובות, מהרהרים, בודקים, לעתים מתקנים את עצמם (בתכנות רואים את זה היטב) ומבצעים תהליכי ניתוח מורכבים.

בגדול - הם מבצעים חשיבה מתמשכת ומבוססת יותר מזו של מודלי שפה רגילים.

מודל הגיון שכזה מתאים מאוד לפתרון ברמת דוקטור (PhD) של בעיות מורכבות, בעיקר מתמטיות, מדעיות והנדסיות. הוא מושלם לחישובים מורכבים ודברים כמו מתמטיקה, פיזיקה, פיתוח קוד והסקת מסקנות.

ואגב, מודל ריזונינג דורש כוח מחשוב משמעותי מהרגיל, לפחות במקרה של מודל ChatGPT 4o1 של OpenAI וקצת פחות במודל הסיני המפתיע DeepSeek, שפותח לכאורה בגרושים ומראה תוצאות מרשימות בדרישות חומרה נמוכות בהרבה.


#החשיבה דרך הבעיה
מודל היגיון, הוא מודל מנומק, שמשתמש בהיגיון כדי "לחשוב דרך" הבעיה ולהיות מסוגל גם להראות את תהליך החשיבה שביצע, לפני שנותן את התוצאות. זאת בניגוד למודלים הרגילים שמבצעים אופטימיזציה סבירה, רק כדי שיוכלו לספק את התשובה המהירה ביותר (שזה מה שגם גורם לא פעם למודל שפה רגיל לתרום לנו בדרך את ה"הזיות", אותן Halucinations המוכרות לנו כל כך).

בקיצור, אם מודל שפה רגיל הוא הבחור הטקסטואלי שהוא אלוף על טקסטים ועונה מהר, מודל ההיגיון הוא הנערה המבריקה והריאלית, שיכולה לפצח בעיות מופשטות, מתמטיות, פיזיקליות ומדעיות בתחומים ומדעים מדויקים, בלי למצמץ ועם יכולת לנמק ולהסביר את הפתרון שאליו היא מגיעה, צעד אחר צעד.

מודל כזה מבצע לעתים קרובות "שרשרת מחשבה" (Chain of Thought) ולכן גם מכונה כך לפעמים. המודל חושב צעד אחר צעד, בצורה שמזכירה את האופן שבו אנו, בני האדם, עשויים לגשת לאתגר משמעותי יותר כמו פיתוח אפליקציה חדשה, תכנון חופשה או בניית בית.


#היתרון
משמעותו של מודל כזה היא ביכולת שלו לספק תשובות מדויקות ומושכלות לשאלות מורכבות, לפתור בעיות ולקבל החלטות מבוססות נתונים. לכן וכדי להצטיין בבעיות מסובכות יותר, מומלץ להזין אותו בכמה שיותר הקשר, קונטקסט (Context) לגבי הנושא והגישה לפתרון.


#במה הם יכולים לעזור לנו?
מודלים כאלו יכולים לנתח כמויות גדולות של נתונים במהירות ובדיוק, לזהות דפוסים ולהסיק מסקנות. הם יכולים לפתור בעיות מורכבות על ידי שימוש בלוגיקה ובאלגוריתמים מתקדמים.

ביכולתם גם לסייע בקבלת החלטות מבוססות נתונים, מה שיכול להיות מועיל בתחומים כמו רפואה, כלכלה וניהול. בנוסף, הם יכולים להסיק מסקנות לוגיות על בסיס הנתונים שנתונים להם, מה שיכול לסייע בתחזיות ובתכנון.

מודלי ההיגיון יכולים לחסוך זמן ומאמץ בביצוע משימות מורכבות, מה שמאפשר למשתמשים להתמקד בפעילויות אחרות. ביכולתם לספק תשובות מדויקות ומבוססות עובדות, מה שיכול להיות מועיל בתחומים כמו רפואה, משפטים והנדסה.

מודלים אלו מסייעים בקלות בקבלת החלטות מושכלות ומבוססות נתונים, מה שיכול להיות מועיל בחיי היומיום ובעבודה והם יכולים גם לסייע בפתרון בעיות מורכבות במהירות וביעילות, מה שיכול להיות מועיל בתחומים רבים.

ברפואה, מודלי היגיון יכולים לסייע באבחון מחלות ובמתן המלצות לטיפול על בסיס נתונים רפואיים.

בכלכלה, ניתן להסתייע בהם בניתוח שוק ההשקעות ובקבלת החלטות כלכליות מבוססות נתונים.

בחינוך, המודלים הללו יכולים לסייע בהוראה ובלמידה על ידי סיפוק הסברים מדויקים ומושכלים לשאלות מורכבות.

בניהול, הם מעולים הסיוע לניהול משאבים מוצלח ובקבלת החלטות ניהוליות מבוססות נתונים.

אז אם לסכם, מודל היגיון הוא כלי חזק שיכול לסייע במגוון רחב של תחומים ולשפר את איכות החיים של המשתמשים, על ידי סיפוק תשובות מדויקות ומבוססות עובדות. עם יכולותיו הוא מאפשר לנתח נתונים במהירות, לפתור בעיות מורכבות ולקבל החלטות מבוססות נתונים, מה שהופך אותו לאחד הכלים החיוניים ביותר בדור החדש של העידן הדיגיטלי מבוסס הבינה המלאכותית.


הנה מודל ההגיון הסיני Deepseek R1 שיודע לחשוב מראש, לתכנן, להשוות כמה תשובות אפשריות, לפרק את הבעיה לחלקים, לחזור אחורה ולחשוב מחדש על השאלה וכך לענות היטב על שאלות קשות, מורכבות ועד לא מזמן בלתי אפשריות למודל שפה:

https://youtu.be/-2k1rcRzsLA


דוגמה לבעיות פשוטות מהחיים שמודל מנומק יכול לפתור:

https://youtu.be/yQampjl6gPI


שניים כאלה:

https://youtu.be/rzMEieMXYFA


ו-DeepSeek R1 הוא מודל מנומק בקוד פתוח:

https://youtu.be/yT3KGbiA09Q
דיפ ריסרץ'
מה דיפ ריסרץ' עושה במחקר AI מעמיק?



אפשר לראות בזה רק עניין מיתוגי, אך לעומת סתם דיפ סרץ' כלי הדיפ ריסרץ' (Deep Research) מבטיח להיות מנוע מחקר, סוג של מנוע חיפוש, איסוף וכתיבה חכם שתוכנן כך שיוכל לבצע מחקרים מעמיקים ולא רק חיפושים לצורך מענה.

אמנם בכלי מחקר מעמיק שכזה המשתמש שואל את הצ'ט באמצעות פרומפט רגיל ופשוט. אך החיפוש יהיה מעמיק יותר וגם התשובה המתקבלת תהיה מעמיקה בהרבה. זו גם הסיבה שזמן ההמתנה לקבלת מענה יהיה של כמה דקות ועד שעה.

כלי DeepResearch טובים ינפיקו בדרך כלל תוצאות תוך דקות, או יותר במקרה של מחקרים סופר מורכבים. המדהים הוא שלצד איכות התוצאות, ההולכת ומשתפרת ברמה של ימים ממש, הן מתקבלות בחיפוש מהיר שכזה ובמחיר כמעט אפסי.

מחקר שמומחה אנושי היה מבצע במשך שבוע ומחירו היה בסדרי גודל של כ-3,000 דולר אורך בדרך כלל דקות ועלותו זניחה.

ביצוע של מחקר עומק עם הדיפ-ריסרץ' של מודלים אופייניים כמו פרפלקסיטי (Perplexity), ChatGPT או Grok3, למשל, יבצע מחקר, איסוף של מקורות, לאחר מכן שלבים שונים, כמו אינטגרציה, השוואה ושילוב ולבסוף ייתן מענה מפורט. כל זאת תוך שהוא מפרט את שלבי העבודה לעיני המשתמש, בשקיפות מירבית.

מודל הדיפ ריסרץ' סורק את האינטרנט ומאתר מקורות מידע רבים יותר ומגוונים ועושה מאמצים לנפק מענה ברמת דוקטור - תשובה מלאה, מנומקת וכזו שבה מוצגים המקורות שעליהם מבוססת התשובה.

ביצוע של מחקר עומק שכזה מסוגל גם לשפר את רמת השקיפות והאינטראקציה והוא אתגר חשוב בדרך לבינה מלאכותית בוגרת עוד יותר.

כלומר, בניגוד למודל AI רגיל שנוהג לענות במהירות ומבצע הליך חפוז של חקר עד לקבלת המענה הסביר, מה שגם מוליד לצערנו את ההזיות המוכרות לנו עדיין, מנוע חיפוש עמוק, כמו אלו של מודלי ה-DeepResearch המובילים בתחום, עובד אחרת.

איך?

מנוע מחקר DeepResearch מפשט שאילתות לחלקים קטנים יותר ומאפשר כמעט תמיד הצצה והבנה שקופה של תהליך החשיבה שלו, צעד אחר צעד. בכך הוא יכול גם להציע תובנות הקשריות עשירות הרבה יותר מחיפוש רגיל באמצעות AI ובמקרים מסוימים גם לנמק.


כך מבצע Perplexity מחקר עומק מבוסס AI בחינם:

https://youtu.be/Z1_M2XtsUwY


החיפוש המעמיק של כלי ה-DeepResearch:

https://youtu.be/zm6F0vo2E64


הדיפ ריסרץ' של Chatgpt שעולה 200$ לחודש:

https://youtu.be/jPR1NEerdEk


מדריך לעבודה עם ה-DeepResearch החינמי ומהיר של Grok 3:

https://youtu.be/7pR3bVWZSao


והשוואה בין כמה מודלי Deep Search:

https://youtu.be/5dRxhqtIbOg?long=yes
מודל שפה קטן
מהו ומה היתרון של מודל שפה קטן, או SLM?



מודל שפה קטן (Small Language Model), ובקיצור SLM, הוא מודל מתמחה או מומחה, דגם קטן יותר ומזוקק, מה שהופך אותו להבטחה גדולה וממשית לצרכים עסקיים, בעולם האמיתי.

מודלים קטנים של שפה, או כמו שתרגום מכונה מכנה בטעות "מודלים של שפות קטנות", מאפשרים היום אימון בינה מלאכותית על ידע ספציפי לתחומים שונים ובכך להתאימם לתעשיות ספציפיות, משימות וזרימות עבודה תפעוליות.

SLM הוא קצת כמו סוס חזק ומהיר שיכול לבצע משימות ממוקדות, לעומת כרכרות LLM עמוסות, כבדות ולכן גם מוגבלות בתמרון.

שוב ושוב נשאלת השאלה האם יכולים מודלי שפה קטנים (SLMs) לנצח את ה-ChatGPTים או ה-Claudeים למיניהם, את האחים הגדולים והוותיקים, המצוידים, מאומנים ועתירי המשאבים מעולם ה-LLMs?

או במספרים - האם מודל של מיליארד בודד של פרמטרים (1B) יכול לגבור על היכולות של מודל עם 405B פרמטרים, יותר מפי 400 ממנו?

אז כן. בניגוד למודל שפה גדול של עולם ה-LLMs, שמעבד כמויות אדירות של ידע כללי, המודל הקטן מעולם ה-SLMs בנוי במחשבה על דיוק ויעילות. עלות הפעלתו היא נמוכה משמעותית, הוא דורש פחות כוח חישוב ובנוי כדי לספק תובנות רלוונטיות יותר לעסק מאשר מקביליו הגדולים והכלליים.

בעולם המודלים הגדולים של שפה כבר הסתבר שאופטימיזציה של החישובים ב-SLMs כאלה יכולה אכן לעלות את היכולות של הקטנים הללו על אלו של דגמים גדולים יותר, שמנסים ומצליחים להיות חכמים מכולם ויודעי-כל, אבל תפעולם יקר ומסורבל יותר והם לא יעמדו ביכולות ההתמחות של מודל קטן שלא מביט לצדדים ומרוכז רק במשימתו.

מחקרים שבחנו את היעילות של שיטה ששמה Compute-Optimal TTS, למשל, הראו ששיפור הביצועים של מודלים קטנים מאפשר לעלות בהם את הביצועים על אלו של דגמים גדולים יותר, במשימות מתמטיות כמו MATH-500 ו-AIME24 ובשיפור יכולות החשיבה של LLM.


#ביצועים, התמחות ואבטחת נתונים
לא מעט חברות וארגונים מבינים שהשאלה היא לא על איזה מודל בינה מלאכותית אנשים קופצים, אלא איזה מודל יספק לחברה או לארגון ערך עסקי אמיתי. SLMs מאפשרים לעסקים לפרוס AI ישירות על מחשבים ניידים, רובוטים וטלפונים ניידים ולהבטיח בכך גם שהנתונים, הדאטה שלהם, יישארו מוגנים.

דגמי SLM, שמותאמים להצטיין בתחומים ספציפיים - פיתוח תוכנה, רפואה, פיננסים וכדומה, יספקו תוצאות מדויקות ואמינות יותר, המותאמות לצרכי הארגון הייחודיים וליכולותיו.

ה-SLMs המזוקקים והקטנים יותר מצליחים לשמור על יכולות חשיבה חזקות וממוקדות תחום, ביחד עם יעילות המאפשרת להם לפעול באופן מקומי, מבלי להסתמך על מחשוב ענן.


#סוכני AI
אם SLMs מצוינים עבור עסקים הרוצים לייצר משימות אוטומציה שלא נזקקות לכל הרעש והצלצולים שמציע ה-LLM, אז מה עם סוכני בינה משויפים?

אז ברור שגם מפתחים של סוכני AI צריכים דגמים קלים, מהירים ומתמחים מאוד, המאומנים על ידע מעמיק וספציפי לתחום בו מתמחה הסוכן. בזכות דרישות המשאבים המצומצמות והגודל הקטן יותר שלהם, שירותי SLM יכולים בדרך כלל להתאים בול למגמת ה-Agentic AI, בכך שהם מאפשרים קבלת החלטות אוטונומית בקצה.

אמנם מודלי SLM עשויים לדרוש הכשרה מיוחדת מלכתחילה, אבל מנגד עומד היתרון של הפחתת הסיכונים הכרוכים בשימוש ב-LLM של צד שלישי וספקים חיצוניים. זהו יתרון עצום, המצטרף לשאר יתרונותיהם: יכולת הסבר גדולה יותר, ביצועים מהירים יותר ויכולת ביצוע מדויק, עקבי ושקוף יותר, המצטרפים לשליטה רבה יותר על פרטיות ואבטחת הנתונים.


#שילוב של המודלים
כיום מבינים שאמנם אין תחרות ל-LLMs בגודל ובעוצמה, אך הסתמכות יתר עליהם יכולה להוביל לתחושת ביטחון מוגזמת, לשאננות ולטעויות קריטיות שעלולות לחמוק מבלי להתגלות.

כך שאולי LLMs ו-SLMs אינם סותרים אלא משלימים. יתכן שבפועל, SLMs יכולים לחזק את ה-LLMs וליצור פתרונות היברידיים, משולבים, שבהם ה-SLMs ממונים על הביצוע הספציפי והמדויק בעוד ה-LLMs מספקים את הקונטקסט, ההקשר הרחב יותר .


מהם SLMs ומה יתרונות מודלי השפה הקטנים הללו:

https://youtu.be/C4Qt9Hnp6vs


הסבר פשוט וקצר:

https://youtu.be/AlwWuSor_M4


למה לבחור SLM ולאילו מגבלות לשים לב אל מול ה-LLM?

https://youtu.be/Hg8f5bjtsWc


ומודל השפה הקטן של מיסטרל:

https://youtu.be/nCXTdcggwkM
אימון מכונה
איך מאמנים מכונות ובאילו שיטות הן לומדות?



למידת מכונה מתבססת על יצירה של מודל גדול. המודל עצמו הוא אכן אוסף גדול ומורכב של מספרים, שמייצגים מידע, כלומר דאטה שהוזן למודל מהעולם האמיתי כקלט (Input).

המספרים הללו מייצגים את פריטי הקלט המסוים ומגדירים קשרים מתמטיים ביניהם. על ידי אימון מתמיד של המודל, הוא הולך ומזהה את הקשרים הללו כדפוסים, שיהיו מוכנים כמעין ידע שהוא למד, לקראת שימוש בו, להצגת תחזיות, מענה לשאלות, חישובים של בעיות שנפנה אליו וכדומה.


#תהליך האימון
לפני וכדי שמודל יוכל לענות על שאלות או להציע תחזיות יש לאמן אותו. ממש כמו מאמן כושר או מפקד טירונים בצבא, שמקבלים אימון, הוא יקבל אוסף של נתונים, דאטה שיעמוד לרשותו, כדי שיוכל לזהות את אותם דפוסים. זה חייב להיות קלט (Input) עצום וגדול, כלומר המון נתונים, Big Data.

כדי לאמן מודל אנחנו נותנים לו אוסף של קלטים. הקלטים הללו ישתנו לפי סוג ומטרת המודל, אך המטרה הבסיסית, העליונה והתמידית שלו תהיה למצוא את הדפוסים בדאטה, כך שהוא יוכל ליצור תחזיות טובות ולתת תשובות טובות וללא הֲזָיוֹת (Hallucinations).


#שיטות אימון
למידת מכונה מתבצעת בכמה שיטות שונות, שכל אחת מחייבת "שיטת הוראה" שונה. ישנם 3 סוגים של למידת מכונה: למידה ללא פיקוח, למידה מפוקחת ולמידת חיזוק.

- למידה לא מפוקחת - היא למידת מכונה הלומדת באמצעות זיהוי עצמי של קווי דמיון ודפוסים וללא הנחיה אנושית.

- למידה מפוקחת - מתבססת על אימון בינה מלאכותית באמצעות דוגמאות מסומנות. כלומר, למידה שמסתמכת על קלט מבני אדם כדי לבדוק את דיוק התחזיות.

- למידת חיזוק - מתבססת על אימון בינה מלאכותית באמצעות ניסוי וטעייה. כלומר, מדובר בלמידה מחוזקת משמשת לתוכניות טיפול, תוך איסוף משוב באופן חוזר ונשנה (איטרטיבי) והשוואה מול הדאטה המקורית של כל פרופיל, כדי לקבוע את הטיפול היעיל ביותר לו.

כאשר מודלים אלה הופכים לעצמם, קשה יותר לקבוע את תהליך קבלת ההחלטות שלהם, מה שיכול להשפיע על העבודה, הבריאות והבטיחות שלנו.


#דוגמה
הנה דוגמה מהעולם הרפואי של רופאים והמטופלים שלהם:

בלמידה ללא פיקוח נוכל להשתמש כדי שהמודל יזהה קווי דמיון בין פרופילי מטופלים שונים ויאתר דפוסים שמתעוררים אצלם, כשהוא עושה זאת ללא הדרכה אנושית וללא פיקוח של רופאים ומומחים.

למידה מפוקחת, לעומת זאת, תסתמך על הקלט של הרופאים שיבצעו את האבחנה הסופית ויבדקו את הדיוק של חיזוי האלגוריתם. כלומר כאן המכונה תלמד מהמומחה, גם מהאבחנות המוצלחות שלו אך גם משגיאותיו. אם יוזנו למכונה נתונים של 2 קבוצות, חולים ובריאים, היא תזהה בעצמה מאפיינים שמשותפים לחולים במחלה מסוימת ושאינם נמצאים אצל אנשים בריאים. לאחר השוואה בין תחזיות המכונה לאבחון הסופי של המומחים, המכונה תלמד לזהות את התסמינים של המחלה ולסייע לרופאים לאבחן אותה נכון בעתיד.

למידת חיזוק תשמש לתכניות טיפול, בגישה איטרטיבית, תהליך חוזר ונשנה בו יוזן למכונה, שוב ושוב, המשוב החוזר על ידי הרופאים. המשוב יהיה לגבי יעילות התרופות, המינונים השונים ולגבי הטיפולים היעילים יותר ופחות, כך שהמודל ישווה יעילות של התרופות, המינונים והטיפולים לדאטה של החולה ויסיק מסקנות שיאפשרו לו לחזק בעתיד את הטיפולים המוצלחים והייחודיים יותר, אלו שיתאימו לפרופילי חולים, עם מאפיינים ומקרים שונים, לאור תגובות חולים משתנות, נסיבות שונות של המחלה ומצבי המחלה המגוונים לאורך הטיפול.


כלומר, החוקרים יכולים להשתמש במערכות למידת המכונה הללו ביחד, כדי לבנות מערכות בינה מלאכותית.

אבל - ויש כאן אבל משמעותי - יש לשים לב שככל שהמודלים הללו מכוונים באופן עצמאי, יהיה קשה יותר לקבוע כיצד האלגוריתמים השונים מגיעים לפתרונות שלהם, מה שיכול להיות בעל השפעה משמעותית על העבודה, הבריאות והבטיחות שלנו, בני האדם, כשאנו משתמשים בהם. לכן, באימון של מודלים גדולים (LLMs) משתמשים לרוב בכל השיטות הללו במקביל, כשלא פעם הן מאמנות אחת את השנייה.


הנה אימון מכונה פשוט (עברית):

https://youtu.be/CC-TGXxc-Go


כך המכונה לומדת ומדוע כדאי לשלב שיטות אימון שונות (מתורגם):

https://youtu.be/0yCJMt9Mx9c


וכך האלגוריתמים לומדים (מתורגם):

https://youtu.be/R9OHn5ZF4Uo?long=yes


NLP
מה זה NLP או עיבוד שפה טבעית ב-AI?



עיבוד שפה טבעית, או NLP, משתמש במחשבים ובטכנולוגיות של בינה מלאכותית, המתמקדות בפיתוח אלגוריתמים המאפשרים למחשבים לקרוא, להבין ולתקשר בשפה רגילה, כתובה או מדוברת אבל טבעית, שפה של בני אדם.

NLP הם ראשי תיבות של "Natural Language Processing" ובעברית "עיבוד שפה טבעית". זהו תת-תחום בבינה מלאכותית, הקשור בצד הבלשני שלה, צד השפה המדוברת.

ניתן לומר בפשטות שהמטרה של עיבוד שפה טבעית היא שמחשבים יוכלו לתקשר עם בני אדם באותו אופן בו אנו, בני האדם, מתקשרים בינינו.

עיבוד השפה הטבעית קשור לתחום הבלשנות החישובית והוא משלב רעיונות מתחום מדעי המחשב בחקר השפה האנושית. התחום הזה במחשוב עוסק בבעיות הקשורות לעיבוד, טיפול ושינויים או מניפולציה של השפה הטבעית האנושית.

מטרת ה-NLP היא להבין שפות אנושיות, לנתח את התוכן והכוונה של המסרים שבהן ולהצליח לפרש את משמעותם הבסיסית, כך שניתן יהיה לגרום למחשבים "להבין" דברים שנכתבים או נאמרים בשפה הטבעית, כלומר בשפות של בני-אדם.

לשם כך, מודלים של NLP משתמשים בנוסחאות או בעצם אלגוריתמים של למידת מכונה, יחד עם שילוב כללים מוגדרים מראש.

בשנים האחרונות זוכה התחום לעניין רב, כחלק מהפיתוח של יישומי מחשב, רובם מבוססי בינה מלאכותית, יישומים שהתקשורת עימם היא בשפה אנושית.

רבים מהכלים הללו מחייבים תיאורים מילוליים של התוצר המצופה מהם, מנהלים שיחה עם המשתמש או מטפלים בטקסטים באופנים שונים. חלקם מייצרים ויוצרים יצירות באופן דומה ליצירה אנושית, מה שמחייב הנחיות, פרומפטים המהווים תיאור טקסטואלי של תוכן ואופי התוצרים המצופים, כמו תמונות, סרטים, מוסיקה, קוד ועוד.

עיבוד השפה הטבעית קשור לתחום הבלשנות החישובית והוא משלב רעיונות מתחום מדעי המחשב בחקר השפה האנושית.


הנה הסבר פשוט של NLP במדעי המחשב:

https://youtu.be/pqgUfv7UP4A


היישומים המדהימים של עיבוד שפה טבעית לתקשורת בינינו ובין מערכות AI:

https://youtu.be/TZMZvULBVio


זה עיבוד שפה טבעית בלמידת מכונה:

https://youtu.be/CMrHM8a3hqw


מטרת ה-NLP בעולם של ימינו:

https://youtu.be/7NObIGHhQWA


עיבוד השפה הטבעית בטכנולוגיות AI יומיומיות:

https://youtu.be/43cXcuXGnXk


אי אפשר לדבר על NLP בלי לדבר על LLM (עברית):

https://youtu.be/ugxgxqRg2-I


פרמטרים וטוקנים הם לא הכל במודלים:

https://youtu.be/a1nqXQMOCks
מה בין מודל היגיון, מולטי מודאליות ושרשרת מחשבה?



בעולם המתהווה ממש לנגד עינינו יש לעתים בלבול בין טכנולוגיות, מושגים ורעיונות שונים. הבה נבהיר את ההבדלים ביניהם:

#מולטי מודאליות (Multimodal Model)
זוהי תכונה של מודל שפה שיכול לקבל סוגי קלט שונים ולהתייחס אליהם, במקום רק טקסט, כמו מודלי השפה הרגילים או הראשונים שהכרנו בהתחלה. הרעיון במודלים מולטי-מודאליים כאלו הוא שהם משלבים כמה סוגי נתונים או מודאלים, כולל טקסט, תמונות, הקלטות, אולי סרטונים וכדומה.

דוגמה לכך היא מודל ה-Multimodal Chain-of-Thought (בקיצור CoT), שמציע גישה בה המודל משתמש בשני שלבים: הראשון הוא יצירת רציונלים, הסברים, והשלב השני של הסקת תשובות. השילוב של מידע טקסטואלי עם מידע חזותי מאפשר למודלים אלו לשפר את ביצועיהם ולצמצם את כמות ה"הזיות" (hallucinations) בתשובותיהם. פירוט בתגית "מולטי מודאליות".


#מודל היגיון (Reasoning Model)
מודל היגיון הוא מודל שנועד לחקות את תהליך החשיבה האנושית. הוא מתמקד בהסקת מסקנות לוגיות על בסיס מידע נתון, ולא רק בהפקת תשובות מהירות.

מודלים אלו מבצעים לעיתים קרובות "שרשרת מחשבה" (Chain of Thought), כלומר הם חושבים צעד אחר צעד כדי לפתור בעיות מורכבות, כמו בעיות מתמטיות או מדעיות. זה מאפשר להם להסביר את הפתרונות שלהם בצורה ברורה ומדויקת יותר. פירוט בתגית "מודל היגיון".


#שרשרת מחשבה (Chain of Thought)
ה-Chain of Thought ובקיצור CoT, הוא טכניקת הפעלת מודלים שבה המודל מונחה לפרק בעיה סבוכה ומורכבת ולייצר רצף של צעדי חשיבה קטנים, לפני שהוא מספק תשובה.

שיטה זו, המחקה את דרך הפעולה האנושית, שיפרה את יכולות ההיגיון של מודלים גדולים והוכחה כיעילה בביצוע משימות שונות כמו חישובים, רציונליזציה של מצבים יומיומיים, ופתרון בעיות סימבוליות.

המודל מתבסס על דוגמאות קודמות כדי להנחות את החשיבה שלו, מה שמוביל לשיפור משמעותי בביצועים. פירוט בתגית "שרשרת מחשבה".


אז נסכם שמולטי מודאליטי או מולטי מודאליות משלבת סוגי נתונים או קלט שונים ולא רק טקסט ובכך משפרת ביצועים. מודל היגיון, בסמוך, מחקה את החשיבה האנושית ומספק הסברים לוגיים לתשובות שהוא נותן, בעוד שחשיבה מדורגת, או שרשרת מחשבה, היא טכניקה שמסייעת ומנחה מודלים לחשוב על בעיות בצורה מסודרת, לפני שהם נותנים את התשובה.

שלושת המושגים הללו קשורים זה בזה, כי מודלי ההיגיון יכולים להשתמש בטכניקות של חשיבה מודרגת (Chain of Thought) ולא פעם משולבים בהם אמצעים מולטי-מודאליים כדי לנצל את היתרונות של כל אחד מהם.
מה עושה האינטרנט למוח?



השפעת האינטרנט על חיינו היא משמעותית במיוחד. אין ספק שחיינו השתנו לבלי הכר מאז תחילת שנות ה-90 כשהטכנולוגיה הזו הפכה יותר ויותר מרכזית בחיים המודרניים.

מצד שני יש טענה שגוגל והקלות הבלתי נתפסת למצוא בו דברים הופכים אותנו לטיפשים. האם זה אכן כך? - זו שאלה שמעסיקה חוקרים רבים, והתשובה היא, כפי הנראה, מורכבת יותר משאולי נדמה לנו.

הטענה המרכזית: שימוש יתר במנועי חיפוש, תוכנות ניווט וטכנולוגיות דומות עלול להפחית את פעילות המוח באזורים מסוימים, ולהשפיע לרעה על יכולות קוגניטיביות כמו ריכוז, זיכרון והתמצאות מרחבית.

ניקולס קאר, סופר אמריקאי, תיאר במאמרו המפורסם "האם גוגל הופך אותנו לטיפשים?" את הקושי שלו להתמקד בקריאה לאחר שנים של שימוש אינטנסיבי באינטרנט, תופעה שרבים הזדהו עמה.

ההסבר שהמדע נותן לעניין הזה הוא שהמוח שלנו, בדומה לשריר, זקוק לאימון. כאשר אנחנו מסתמכים על טכנולוגיה, אנחנו מפחיתים את הצורך להשתמש ביכולות טבעיות כמו זיכרון ומציאת נתיבים. כך, לדוגמה, רבים כבר לא זוכרים מספרי טלפון, משום שהם זמינים תמיד בטלפון הסלולרי.

מחקרים גם מצביעים על כך ששימוש ב-GPS מפחית את הפעילות המוחית באזורים האחראיים על ניווט וזיכרון מרחבי, ואפילו נהגי מוניות לונדון, המפורסמים ביכולות הניווט שלהם, מראים גודל היפוקמפוס גדול יותר ככל שהם מנווטים יותר בעצמם, לעומת מי שהתמסרו לאפליקציית הניווט.

ההשפעה על הקשב והזיכרון: מחקרים מצביעים על קיצור טווח הקשב אצל צעירים כתוצאה מגלישה מרובה ברשתות חברתיות ומשחקי מחשב. חוקרת נוספת טענה שאנשים מסתמכים יותר על היכולת למצוא מידע באינטרנט מאשר לזכור אותו בעצמם. זה עלול להוביל לירידה ביכולות הזיכרון. הרי אפילו זיכרון מידע פשוט, כמו מספרי טלפון, נפגע כתוצאה מהתלות בגאדג'טים.

מחקרים שנערכו כדי לבדוק האם זה אכן המצב הראו שאנו "משחררים" ככל שאנחנו סומכים על הטכנולוגיה להחליף את הצורך לזכור. בניסויים שנערכו לבחינת הנושא, למשל, מצאו החוקרים שהמשתתפים זכרו פחות מידע כאשר סברו שהוא שמור במחשב, גם כאשר התבקשו במפורש לזכור.

האם יש גם יתרונות לטכנולוגיה הזו? - ודאי. האינטרנט מציב בפנינו אתגרים קוגניטיביים חדשים, ומאפשר גישה למידע עצום שמשפר את היכולת לקבל החלטות ולסנן מידע. בנוסף, טכנולוגיות חדשות יוצרות "אוריינויות" חדשות, כמו אוריינות חזותית ומשחקית.

לכן, אין תשובה חד משמעית והתמונה מורכבת: האינטרנט יכול לשפר יכולות מסוימות אך לפגוע באחרות. הכניסה המאסיבית של ה-AI לחיינו, עם סוכני AI ומודלי השפה הגדולים (LLMs כמו קלוד ו-ChatGPT) גם היא ודאי משפיעה ותשפיע הרבה יותר ואף תחמיר את התלות בטכנולוגיה ואת הנכונות האנושית להשתמש ביכולות המוחיות שלנו.

אז מה אפשר לעשות בעניין?

חלק מהחוקרים ממליצים על "חדרי כושר למוח" – תוכנות ופעילויות שנועדו לאמן יכולות קוגניטיביות כמו זיכרון וריכוז. אך חשוב גם להפחית את הזמן שאנחנו מבלים מול מסכים ולתרגל חשיבה עמוקה ללא התערבות טכנולוגית.

יעזרו גם קריאה, מחקר, איסוף חומרים עצמאי והתמודדות עם מטלות מסוימות בדרך הישנה, כשאפשר לוותר על האפליקציה או מנוע החיפוש. לבסוף, חשוב להבין שהשימוש בטכנולוגיה הוא כלי ותלוי בנו איך אנחנו משתמשים בו. שימוש מאוזן יכול להביא לתועלת רבה, בעוד ששימוש יתר ופיתוח תלות בה עלולים להזיק.


זה מה שעושה הרשת למוח האנושי ולחשיבה והזיכרון:

http://youtu.be/cKaWJ72x1rI


הנה השפעת הרשת על המוח האנושי:

http://youtu.be/qoFMGLTjUTM


הירידה בקריאה והריכוז היורד (עברית):

https://youtu.be/hQu3deT4aSs


והשינויים הללו של המהפכה הטכנולוגית פוגעים ביכולות הקוגניטיביות של הדורות הבאים (בעברית):

https://youtu.be/RmVJ1acLGic?long=yes
מה בין צ'אטבוט, LLM וסוכן AI שמבצע משימות?



צ'אטבוט (Chatbot) הוא סוג של סייען חכם וממוחשב, שניתן לשוחח איתו בהתכתבות צ'אט, או במקרה של צ'אטבוט מתקדם יותר גם שיחה מבוססת דיבור.

כמובן שהצ'אטבוט הוא מערכת מבוססת AI (בינה מלאכותית, או אינטליגנציה מלאכותית) שמייצרת שיחה מלאכותית עם המשתמש - מבלי שבצד השני נמצא אדם אמיתי.

בעשור השני של המאה ה-21 הצ'אטבוט הלך ותפס את מקומו ברשת ובאפליקציות שונות והפך לדרך חדשה לחלוטין להשתמש באינטרנט. לקוחות מצאו את עצמם מנהלים התכתבות בצ'אט או שיחה אוטומטיות עם בוט, שנתן מענה מותאם אישית ושיפר את עצמו עם הזמן.

הצ'טבוט הבטיח לספק שירות לאורך כל שעות היממה, 24/7. הוא סימן הפחתה של המון מהעומס של שירות הלקוחות האנושי, חסך זמן למתעניינים וללקוחות שביקשו שירות וחסך לעסקים הרבה כסף.

התגלה שבוט AI ממוקד ואיכותי מסוגל להציע תגובות מהירות ומדויקות, מה שהוביל לשיפור ניכר בחוויית הלקוח ולעלייה בשביעות הרצון, אף שהיו לקוחות שהתעקשו לשוחח עם בן אדם, שהיה עמוס עכשיו פחות ולכן גם זמין להם הרבה יותר.

היתרונות של הצ'טבוט בטיפול אישי במשתמש ובלקוח היו עצומים. שולבו בו טכנולוגיות פרסונליזציה מתקדמות שהלכו והתפתחו, תוך גיוס הבינה המלאכותית לצרכי השיווק, המכירות והתמיכה.

רבים חזו שצ'אטבוטים עשויים להחליף חלק ניכר מהשימוש באתרי שירותים שונים ולייתר אותם בעתיד, מה שהתממש אבל חלקית.

בזמנו החליטה פייסבוק להשתמש בצ'אטבוטים בתוך שירות המסרים שלה מסנג'ר. היא אפשרה למפתחים חיצוניים לפתח צ'אטבוטים שיתנו שירותים ומידע מאתרים אחרים. ההכרזה על פלטפורמת הצ'אט בוט של פייסבוק מסנג'ר קדמה את רעיון הצ'אטבוטים המקוונים באופן משמעותי, במיוחד למשתמש הנייד בסמארטפונים ושעונים חכמים, אם כי הזינוק הטרנדי שנוצר עם ההשקה הלך ונרגע עם הזמן.

ההבשלה של אותם צ'אטבוטים באה בעשור הבא דווקא. זה קרה עם הגעתו של ChatGPT, מודל השפה הגדול הראשון (LLM), שאחריו הגיעו נוספים, כמו Gemini או Claude. מודל השפה הזה הוא בעיקרון מנוע בינה מלאכותית גדול ורחב-אופקים, המצויד ביכולת להבין שפה טבעית, אנושית, ויכול לעשות המון דברים, כלומר להתמודד עם מגוון ענקי של משימות ושהיכולות שלו הולכות וגדלות מיום ליום. ראו בתגית "LLM".

ממודלי השפה הגדולים התפתחו גם מנועי היצירה של הבינה הג'נרטיבית (Generative AI), המייצרים תמונות, שירים, וידאו ועוד. הכירו בתגית "GenAI".

אחריו נולדו סוכני ה-AI, צ'אטבוטים שממלאים משימות עבורך, על ידי שילוב בין היכולת הבינתית של מודל השפה הגדול כמו ChatGPT, עם היכולת של רכיב תוכנה שיכול לפעול באופן עצמאי וממוקד, למילוי של משימה ספציפית עבורנו, כמו לתכנן טיול, לקנות מוצרים אונליין, לטפל בדואר האלקטרוני שלנו וכדומה.

אותם סוכני AI הם רכיבי תוכנה אוטונומיים, יישומים מבוססי בינה מלאכותית, המסוגלים לתפוס את סביבתם, לקבל החלטות ולפעול לביצוע או השגת מטרות ממוקדות בשירות המשתמש. הכירו אותם בתגית "סוכני AI".

כלומר, אם הצ'טבוט של העשור שהחל ב-2010 היה עובד חרוץ אך לא חכם מדי, הצ'טבוט הבינתי של מודל השפה הגדול בעשור שאחריו רכש השכלה ופיתח את יכולותיו האינטליגנטיות באופן שהפך אותו למומחה ואז מגיע הסוכן הבינתי, AI agent והוא כבר עובד שמתמחה במשימה מסוימת ועושה אותה בצורה מיומנת וחרוצה.

עסקה טובה לרובנו.


פעילות נחמדה
============
בקישורים שלמטה יש לינק לצ'ט בוט נהדר. נסו לשוחח איתה (באנגלית) ולהכיר קצת את חוויית השיחה עם צ'ט בוט אופייני.


הנה עולם הצ'אטבוט:

http://youtu.be/iE9LtfQAYYU


עוד על השימוש בצ'אטבוטים ברשת:

http://youtu.be/G8z--x5tFOI


ההכרזה על הצ'אט בוט במסנג'ר של פייסבוק:

http://youtu.be/EOYnFUJyOlQ


ומנגד - כשהושק הצ'אטבוט של מיקרוסופט הוא "הסתבך" עם ביטויי גזענות קשים:

http://youtu.be/LA49GBcbudg
מהי שרשרת מחשבה בלמידת מכונה?



דמיינו מודל AI שלא רק עונה לכם על השאלה ששאלתם אלא משתף אתכם בהסבר מפורט על סדר הפעולות שעשה בדרך לתשובה ובמהלך המחשבה שלו. נכון שזה מעולה? - זה מצוין כדי להבין, ללמוד, להשתפר וכמובן לאמת שהתשובה היא לא עוד הזיית AI, כמו שאנו מקבלים לעתים מהמודלים שלנו.

שרשרת מחשבה (Chain of thought ובקיצור COT) היא בדיוק שיטה כזו. טכניקה חדישה יחסית, שפותחה בתחום הבינה המלאכותית, לפיה הבינה מתבקשת לא רק לענות על שאלה, אלא להסביר ולשתף בכל שלב, בצעדים או בשלבים לקראת ועד הפיתרון. מכאן בא גם תרגום נוסף ואולי אף מדויק יותר בעברית של התהליך: "חשיבה מדורגת".

אם נדמיין לרגע שאנחנו מלמדים ילד לפתור בעיה מורכבת, סביר שלא נגיד לו את התשובה הסופית מיד. במקום זאת, נעדיף להוביל אותו אל הפתרון, בצעדים קטנים, צעד אחרי צעד. וזה בדיוק מה שקורה כשמתקשרים עם מודלים של בינה מלאכותית בדרך של שרשרת החשיבה, או החשיבה המדורגת.

באופן דומה, אפשר להנחות את הצ'טבוט כבר בפרומפט, לתת הסבר בשלבים של דרך הפתרון או ההגעה לתשובה ולא רק את התשובה עצמה.


#איך זה עובד בפועל?
זה לא מסובך. במקום לשאול "מה התשובה?", אפשר לכתוב למודל "בוא נחשוב על זה צעד אחרי צעד" או "הסבר לי את תהליך החשיבה שלך". התוצאה די מפתיעה: המודל הממושמע מתחיל לפרק את הבעיה לחלקים קטנים יותר, מסביר כל שלב בדרך ומוביל בהדרגה אל הפתרון המלא.

לטכניקה הזו יש משמעות מיוחדת בעולם הפרומפטים. כשאנחנו כותבים פרומפט חכם, אנחנו למעשה מזמינים את המודל לשתף אותנו בתהליך החשיבה שלו, בדיוק כמו תלמיד שמראה את כל שלבי הפתרון במחברת המתמטיקה. במקום לקבל תשובה יבשה וסופית, אנחנו מקבלים הצצה מרתקת אל תוך "המוח" של הבינה המלאכותית.

ושוב - לא מדובר רק על חקירת מידע, אלא על חקר הבינה האנושית עצמה. בדרך הזו אנו יכולים לחייב את הבינה להיות מאורגנת יותר ואולי אף ליפול פחות לאותן הזיות (Hallucinations), פריטי מידע שקריים או מטעים שלרוב מוצגים כעובדה.


#מה היתרון בשיטה הזו?
היתרון הגדול של שיטת "שרשרת המחשבה" הוא כפול: לא זו בלבד שהיא משפרת משמעותית את הדיוק של התשובות, אלא שהיא גם הופכת את כל התהליך לשקוף יותר. כשאנו, בני האדם, שותפים לתהליך המחשבה המודרגת הזו, ההרגשה היא כמו להציץ מעבר לכתפו של מומחה בזמן שהוא עובד - אנו לא רק רואים את התוצאה הסופית, אלא יכולים להבין בדיוק איך הגיעו אליה.

ובעידן שבו בינה מלאכותית הופכת לחלק בלתי נפרד מחיינו, היכולת להבין את תהליך החשיבה של מודל שפה או כל מכונה בינתית שהיא, היא לא רק יתרון, כי אחרי שמתנסים בה, מבינים כמה היא לעתים הכרחית.


הנה שרשרת מחשבה:

https://youtu.be/Fp-ue4UCE3s


הסבר יפה של ה-Chain of Thought:

https://youtu.be/4Iwnx2cVqtE


כך תשלטו בהנחיות שרשרת, באנגלית Chain prompting:

https://youtu.be/B4MR8m7V17A?long=yes


פודקסט AI על הסבר מפורט יותר על החשיבה המדורגת:

https://youtu.be/uo6y8oDrW3U?long=yes


והסבר מפורט יותר על זה:

https://youtu.be/C_gf9KNScIo?long=yes
מהם טוקנים ב-AI ולמידת מכונה?



מאסימוני הטלפונים ועד עולם אבטחת מערכות מחשוב, טוקן (Token), בעברית “אסימון”, הוא מושג המשתנה בהתאם להקשר שבו הוא מוזכר. אפילו בתוך עולם המחשבים יש למושג טוקן כמה שימושים.

בלמידת מכונה, אחת הזירות המרתקות של העידן המודרני והתחום בו פועלים מודלי השפה הפופולריים של ימינו, כמו Claude או ChatGPT, לטוקנים יש משמעות אדירה.

אותם מודלים גדולים, LLMs, הם מודלים מתמטיים. כדי לבצע את המשימות שאנו מבקשים מהם, תוך כדי תקשורת איתם בשפה טבעית, כמו אנגלית, עברית וכדומה, הם משתמשים בתהליך שנקרא "טוקניזציה" (Tokenization).

במרכז הטוקניזציה נעשה פילוח של הטקסטים שהמודלים הללו מקבלים כנתונים, כדאטה, ליחידות קטנות יותר, תרגום של חלקי המידע הקטנים למספרים, כשאת יחידות המידע הללו, שהומרו למספרים, הם ינתחו בהמשך.

כך, אחרי שמסתיימת הטוקניזציה, הם מייצרים מהמידע טוקנים, מספרים שכל אחד מהם מייצג פריט מידע קטן. ה"טוקן" משמש בהם בתפקיד "אסימון למידת המכונה", שמתאר באופן מתמטי את יחידות הטקסט הקטנות. אלה מעין יחידות מידה שהמודלים המוכרים יוצרים מהקונטקסט.

לאחר שסיימו להפוך את המידע לטוקנים, מרבית המודלים שאנו מכירים הטוקנים משמשים לייצוג של הטקסט, ביחידות קטנות שהמודל מעבד בצורה מתמטית.

כשאנו משתמשים בטוקנים, זה כדי לסייע למודל להבין את המבנה של הטקסט, כך שיוכל לבצע על פיו את החישובים שלו. טוקן אחד יכול להיות כל חלק ממילה בשפה הרגילה שלנו, או אפילו תו אחד.

כדי להבין ולהגיב לקלט, המודל משתמש בכמות מסוימת של טוקנים. וטוקן יכול להיות כל פיסת מידע, מתו בודד ועד מילה שלמה ולעתים גם יותר. יש שיטות שונות של טוקניזציה והבחירה ביניהן היא בהתאם לאלגוריתם בו משתמשים. יש שהאסימון הוא לפי תווים (Character tokenization), אסימון לפי מילים, לפי משפט, ביטויים, טוקניזציה לפי מילת משנה ולפי מספר.

בשיחה על מודל AI (ה-LLM, כמו ChatGPT או Claude) משמש הטוקן לציון גודל השיחה על המודל והיקף המידע שיכול להיות בה. לכל מודל יש מגבלה של זיכרון התוכן שהוא יכול לעבד בשיחה אחת ולהתבסס עליו בתשובות שלו ובמהלך השיחה.

כל הטקסט שהמודל מכיל ובא מהקלט שמזרים לו המשתמש, כולל השאלות והתשובות וכל מידע נוסף, כל אלו מכונים "קונטקסט" (Context), כלומר "ההקשר".

חלון ההקשר (Context window), או "חלון הקונטקסט", מייצג את כמות התוכן שהמודל יכול לעבד בשיחה עם משתמש. הכמות הזו נספרת בטוקנים. אם קלוד, למשל, תומך ב-200 אלף טוקנים, זה אומר שהשיחה יכולה לכלול כ-40 אלף מילים. אם לג'מיני של גוגל יש מיליון טוקנים, זה אומר פי 5 יותר מילים וגודל חלון הקונטקסט שלה, כלומר השיחות עם ג'מיני הוא של כ-2 ספרים ממוצעים.

גם מהירויות של מודלים מודגמת לא פעם בטוקנים לשנייה. לא נדיר לראות השוואת מהירויות כמו "מודל ה-Sonar החדש של Perplexity מגיע לביצועים של עד 1200 טוקנים לשניה, בהשוואה ל-75 טוקנים לשניה בלבד של המודל Claude 3.5 Sonnet" או 140 טוקנים לשניה של Gemini 2.0 Flash של גוגל".


טוקניזציה כפי שהיא נעשית בידי מדעני נתונים:

https://youtu.be/fNxaJsNG3-s


פרמטרים וטוקנים הם לא הכל במודלים:

https://youtu.be/a1nqXQMOCks


הסבר של Machine Learning Token באנגלית:

https://youtu.be/mnqXgojQCJI


וטוקניזציה באתרי אינטרנט שיכולה לשמש בהקשר אחר כאמצעי אבטחה:

https://youtu.be/Y7I4IDojhJk
מהי טפשת ה-AI שתפגע באיכות התוכן והקוד?



אחת התופעות שמתחילות להתגלות בשנים האחרונות, מאז הפריצה של הבינה המלאכותית הגנרטיבית, היא של טפשת שגורמת הבינה הגנרטיבית למידע ולתוכן באינטרנט.

ברור שהשימוש הכל כך קל ב-Generative AI מקל על המשתמשים, אבל ידוע לכל שיש לבדוק את המידע שהיא יוצרת לפני שמחזירים אותו לציבור כמידע שיצרו בני אדם. מסתבר שרבים לא מבינים את החולשות והפגמים שעדיין מלאים בהם מודלי השפה, אותם מודלים גדולים (LLMs) שעושים היום את הידע. אם אלה תכנים שהתקבלו מקלוד או ChatGPT, רכיבי AI שנועדו לייצר קוד בתכנות, וידאו או תמונות גנרטיביות שיוצרים מנועים שונים ועוד.

התופעה הזו כבר פוגעת באיכות המידע באינטרנט, לפי בדיקות אובייקטיביות שעורכים באופן תקופתי לאיכות הרשת. מסתבר שלא זו בלבד שבני אדם מסתמכים על מידע שחלקו לא מדויק בלשון המעטה, אלא שהקרולרים עצמם, אותן תוכנות שאוספות את המידע מהרשת לצורך אימון, הזנת ועדכון מודלי השפה הגדולים - מסתבר שהם עצמם מסתמכים על המידע הגרוע הזה. ובדיוק כך, הוא חוזר למודל השפה ונכנס לתוכן שמקוטלג לטוקנים (Tokens) ובחזרה לדאטה שעליו הם מסתמכים. התוצאה היא שיותר ויותר מידע לא בדוק ולא אחראי, שהגיע מלכתחילה לרשת ממודלי שפה לא בשלים מספיק, חוזר ומפרה את המודלים הבוגרים, שאמורים לקבל מידע אנושי ואיכותי ולא תמיד יודעים לאתר את השגיאות שבו.

גם בעולם העסקים והארגונים יש כבר החמרה. הירידה באיכות התוכן שבאינטרנט נובעת מהשימוש הגובר והולך בחומר בינוני, שהגיע מהבינה המלאכותית הגנרטיבית, אך לא בוגרת, של הדור הראשון. כבר עם ההשקה של ChatGPT ב-2022, גילו מנהלים את הצ'טבוט שמאפשר להם ליצור חומרים באמצעות בינה מלאכותית יוצרת (generative AI) וחיפשו דרכים להשתמש בהם, במקום בעבודה של עובדים או חברות מיקור החוץ שבהם השתמשו בעבר. מעט מאותם מאמצים התגלו כיעילים ומרביתם נשארו בפוטנציאל יותר מאשר החליפו עובדים.

אך בתחום התכנות זה כן קרה. מסתבר שמודלים כמו CoPilot, Claude ואחרים מייצרים קוד במהירות ומחליפים את הג'וניורים, המתכנתים הצעירים בתעשייה. לפי סקרים שמתפרסמים בעולם נראה שקצב האימוץ של המנועים הללו הוא גבוה, במיוחד ביחס לזמן הקצר שבו הם פועלים. אלא שבסוף 2024 מתחיל להסתבר שכ-40% מהמתכנתים בעולם משתמשים בכלים כאלה ומשגרים קוד שלפחות בחלקו הוא פחות מוצלח. קוד זה חוזר ו"נלמד" על ידי המודלים ומוריד את איכות התכנות שלהם באופן מתמשך, שעלול אף להחמיר.


אֵאוּרִיקַה - האנציקלופדיה של הסקרנות!

העולם הוא צבעוני ומופלא, אאוריקה כאן בשביל שתגלו אותו...

אלפי נושאים, תמונות וסרטונים, מפתיעים, מסקרנים וממוקדים.

ניתן לנווט בין הפריטים במגע, בעכבר, בגלגלת, או במקשי המקלדת

בואו לגלות, לחקור, ולקבל השראה!

אֵאוּרִיקַה - האנציקלופדיה של הסקרנות!

שלום,
נראה שכבר הכרתם את אאוריקה. בטח כבר גיליתם כאן דברים מדהימים, אולי כבר שאלתם שאלות וקיבלתם תשובות טובות.
נשמח לראות משהו מכם בספר האורחים שלנו: איזו מילה טובה, חוות דעת, עצה חכמה לשיפור או כל מה שיש לכם לספר לנו על אאוריקה, כפי שאתם חווים אותה.