top of page

האם "בינה מלאכותית" אינטליגנטית? - האם ChatGPT מבינה את התשובות שהיא נותנת ?

Npint

עודכן: 22 במאי 2023

אחת הבעיות במתן שמות לאפליקציות מחשב שונות היא שהשם הניתן להן עלול להטעות.

השם "בינה מלאכותית" רומז על ישות מבינה וחושבת, ישות אינטליגנטית!

האם תוכנות כמו ChatGPT אכן חכמות ומבינות?



יצאנו לבדוק את התוכנה.



https://manage.wix.com/dashboard/d07a12cd-933e-4053-bcb7-a7ac7cb736fd/blog/aeef2311-6e07-4933-9575-08424495bfca/edit?referralInfo=sidebar





התחלנו בשאלות שהן בתחום המומחיות שלנו - התשובות שקיבלנו היו מנוסחות היטב אולם שיטחיות עבור מומחה. ועדין, עבור קורא מתחיל הן סיכמו את העיקרים.


עברנו לבדיקת יכולת ההבנה של ה"בינה"

כידוע לקוראים באתר זה המוח בנוי כרשת דרכים עליה נוסעות המחשבות ובה נבנים קישורים בין קבוצות נוירונים המייצגות מושגים, חלקי מושגים, וגרויים שונים. הבנה במוח פרושה לקשר קישור בעל משמעות.

הבנה פרושה לייצר מסלול שוטף בין חלקי משפט, או מושג.


כדי לבדוק יכולת הבנה של התוכנה השתמשנו בבחינה של היכולת לההבין בדיחות. בניגוד לשאלות "הבנה" רבות הניתנות בבית הספר או נשאלות בחיי היומיום, לבדיחות אין בד"כ פרשנויות ברשת. אם התוכנה יכולה להבין בלי שמשהו כתב והסביר את זה קודם - היא אולי תוכל להבין בדיחות, למצוא את ההקשרים החדשים והמפתיעים שמייצרות בדיחות.


ביקשנו מ"הבינה המלאכותית" לספר לנו בדיחה.


היא ענתה מיד (באנגלית) בדיחה המבוססת על משחקי מילים:


למה ספר החשבון היה עצוב? - כי הוא מלא בבעיות ....


חייכנו, והרגשנו שהתוכנה הזו ממש אנושית : )


כעת ביקשנו בדיחה מצחיקה יותר.


ה"בינה המלאכותית" הציגה את הבדיחה הבאה (באנגלית):


למה העגבניה האדימה?

Why did the tomato blush?

Because it saw the salad dressing


כי היא ראתה את הסלט מתלבש


גם הבדיחה הזו מבוססת על משחק מילים באנגלית - ניתן לפרש את התשובה - בכפל משמעות salad dressing פרושו הרגיל - רוטב לסלט. אבל בהקשר של הבדיחה נוצר קישור חדש - העגבניה האדימה כי ראתה את הסלט מתלבש. הקישור החדש משחרר דופמין ואנחנו מחייכים.


כעת רצינו לראות האם התוכנה - הבינה את הבדיחה

ושאלנו את "הבינה המלאכותית" -

למה הבדיחה הזו מצחיקה?


והתשובה שלה היתה משעשעת מאד. היא ענתה: הבדיחה מצחיקה כי יש בה מילה עם כפל משמעות


המילה SAW יכולה להיות "ראתה" או "מסור"...


והתשובה הזו בהחלט הצחיקה אותנו..


האם התוכנה הבינה את הבדיחה?

בעזרת השפה הנוירופדגוגית שלנו ניתן לבחון את השאלה הזו בקלות - היא מתרגמת לשאלה: האם התוכנה הציגה בתשובה שלה קישור בעל משמעות לבחינה?

בן אדם מבין את הבדיחה באופן הבא:

העגבניה האדימה (מבושה) כי היא ראתה את הסלט מתלבש ... (עגבניה בישנית וצנועה).

התוכנה הציגה את הפרשנות:

העגבניה האדימה כי היא מסור/מנסרת (בשגיאת דקדוק) את רוטב הסלט.




מסקנה: הניסוי הקטן למעלה ממחיש ש"הבינה המלאכותית" העומדת בבסיס באפליקציה הנ"ל אינה מבינה בדיחות. היא לא מסוגלת לייצר מסלול מקושר חדש - כזה היוצר משמעות חדשה ורעננה על ידי חיבור פירטי הבדיחה למסלול חדש - מקורי ומהנה. מבחינתה בדיחה מצחיקה כי יש כפל משמעות באחת המילים, ללא קשר לצורך לייצר משמעות חדשה מרעננת וחיבור בין חלקי הבדיחה. והיא לא יודעת את זה כי ככה תיכנתו אותה אנשים. לא צמחה בה "תודעה" או "נפש", ואין בה חוכמה מלאכותית או אחרת... חשוב לזכור את זה כשמדברים על "בינה מלאכותית" שבעצם מדובר באפליקציה. ואולי ניתן גם לחזור ולחשוב ולהעמיק קצת יותר ולהבין דרך כך גם מהי הבנה.


למה נידרשנו לשאלה הזו?

בשנים האחרונות דומה שצמד המילים בינה מלאכותית מופיע בכל מקום. בד"כ מלווה הדבר בהתפעלות מהביצועים המהירים של סוג התוכנה הזה - והחשיבה ההולכת ומצטברת היא הולכת להחליף את האדם בכל המטלות. בכלל זה מנסים המפתחים שלה לערב "בינה מלאכותית" בהחלטות הנוגעות בכבוד האדם וחרותו - איזה עונש להשית על אדם המואשם בפלילים, בהסתמך על עברו, הרקע האישי והמשפחתי שלו, וכיוצא בזה. קימות תוכנות כאלה הממינות מועמדים לעבודה, או כאלה המסכמות מאמרים ונותנות תשובות לשאלות שונות שמציבים לה משתמשיה. החשש המסתמן במאמרים הרבים שנכתבים אודותיה שהיא תייתר למידה והבנה עצמית, אנשים יתרגלו להסתמך עליה, תלמידים לא ילמדו ולא יהייה צורך לחשוב כי התוכנה הזו "יודעת כל".


אז בואו נעצור רגע וניזכר: תוכנות מחשב הנקראות "בינה מלאכותית" עדין אינן מבינות וחושבות. הן מסכמות, הן מחליטות, הן מציעות - הצעות על פי שורות קוד והגדרות הניתנות להן מראש על ידי בני אדם. חשוב לזכור את זה כשמחליטים לסמוך על "בינה מלאכותית" - היא לא באמת מבינה. היא מצייתת להגדרות של בני אדם שיכולים להיות בעלי שיקולים מוטעים או בעלי מטרה מסוימת שאינה המטרה שלנו.


כמורים אין צורך לחשוש מקיומה של תוכנה כזו. ניתן לחקור אותה ולבחון על מה היא יכולה לענות בקלות - סיכומים וכו - ועל מה היא לא - וניתן להעמיק ולחשוב איך ניתן לאתגר את התלמידים כדי שיוכלו לפתח חשיבה ביקורתית, הבנה, קישורים והיפותזות חדשות - את כל אלה בנתיים התוכנות אינן יכולות לייצר בעצמן.


--



רקע פילוסופי לשאלה הנ"ל.

השאלה אם מכונה יכולה להבין ולפתח אינטליגנציה כשל אדם (לפחות) היא שאלה טעונה. חוקרים ופילוסופים רבים דנו בה והתווכחו עליה במהלך השנים.


בשנת 1950 הציע המתמטיקאי הידוע טורינג מבחן שיכול לשמש מדד ל"אינטלגינציה של מכונה". המבחן נקרא נקרא מבחן טורינג. הוא מציע את הניסוי הבא: חוקר נמצא מול 2 חדרים סגורים. באחד מהם מצוי אדם בשני מכונה. האדם שואל באופן חופשי שאלות ומקבל תשובות משני החדרים. אם החוקר לא מצליח להבחין על פי התשובות מי האדם ומי המכונה - סימן שהמכונה פיתחה יכולת הדומה למוח האנושי.


הפילוסוף האמריקאי גון סירל, התנגד לקביעה זו. ב 1980 הוא והציג ניסוי מחשבתי המוכר בשם ניסוי החדר הסיני. נניח, אמר סירל, שיש לנו חדר סגור בו יושב דובר אנגלית שאינו יודע סינית. בחדר יש ארגזים מלאים בסימניות סיניות וספר כללים ובו הוראות חד משמעיות איך להגיב לכל אוסף סימניות שמגיע מבחוץ. מחוץ לחדר יושב אדם ומעביר לאדם בפנים שאלות בסינית דרך חריץ בדלת, והאדם בפנים מלא את ההוראות בספר ושולח החוצה תשובות מושלמות. האם האדם בפנים מבין סינית?


נכון לינואר 2023, צאט GPT לא עברה את מבחן טורינג. יתרה מזו - ההבנה הנוירופדגוגית מדגימה מה חסר בה. היא לא הצליחה לקשר באופן ספונטאני קישור בעל משמעות. כשיודעים מה הבעיה - אני מניחה שניתן יהייה די בקלות לבנות שורת כללים נוספת עבור המכונה כדי שתוכל להסביר טוב יותר למה בדיחה מצחיקה, אבל כשזה יקרה נוכל כולנו לזכור את הניסוי המחשבתי שהציע סירל.


בינה מלאכותית ובעית הגוף-נפש


האם ניתן לייצר אינטלגנציה/בינה מלאכותית/הבנה - ללא גוף?

השאלה הנשאלת כאן לעיל תלויה בהגדרה מהי אינטליגנציה, ומהן מטרות הפיתוח של התוכנה.

--

בשלב הנוכחי של פיתוח AI מושם דגש רב על מכונות "אינטליגנטיות" שמקור המידע שלהן הוא מילולי.

אולם כדי לחקות אינטליגנציה אנושית - שתבין בני אדם - מקורות המידע צריכים להיות מורכבים יותר.


מקור מידע מרכזי, לא מילולי, לבני האדם מספק הגוף שלנו.

דחף מרכזי המניע אותנו הוא הדחף לשרידה.

רגשות של פחד מכליה כתוצאה מגרויים שאנחנו קולטים מעצבים את החשיבה והתגובות שלנו.

לדוגמה - אנחנו מבינים מהי אש אחרי שראינו אותה, נגענו בה, והרגשנו את חומה.

ההבנה העמוקה שלנו יוצאת במקרים רבים - מתחושות גופניות. חלקן שרידתיות פרופר,

וחלקן מתגובות של מערכת התגמול המוחית לסוג כזה או אחר של גרויים - תגובות המקנות תג חשיבות גדול יותר (מישקול גבוה יותר) לחלק מחלקי המידע.


1.

ניתן לחשוב עלינו כעל סוג של "רובוטים של אלהים". לחשוב על המנגנונים השונים המובנים בנו ובכלל זה:

  • המרה של אנרגיה חיצונית למידע שוטף (דרך אברי החושים),

  • תחושת גוף

  • מנגנון תגמול (עם דגש על תפקידה בתהליך גיבוש הזיכרנות, ובברירת מידע ייעודי),

  • רגשות - תחושות דחיפות של סכנה ופחד, אהבה, שנאה, בושה, אשמה וכו.

באותו אופן ניתן לחשוב על האפליקציה המובנית בנו של (אשלית?) רצון חופשי.

ולחשוב עד כמה אנחנו מעונינים להבנות מנגנונים אלה ברובוטים שאנחנו בונים.


2.

שאלת הגוף/נפש מעניינת אבל קימת דואליות נוספת מענינת -

"אני חושב משמע אני קיים" לעומת "אני מרגיש - משמע אני קיים".

במוח יש מנגנונים המאפשרים מעבר דינמי בין שני המצבים עם הדגשים וייחסים שונים בינהם:

יותר חושב ומנותק מרגש, לעומת יותר מרגיש ופחות חושב. האם נרצה להעניק ל AI תכונות כאלה?

--

3.

שאלת קיומה של אשלית הרצון החופשי עולה מהתבוננות במצבי קיצון על קסקדת המתח והשרידה. כשנחסמים מעברי האוויר, במצבי טראומה שונים, במצבי "חוסר אונים ביולוגי", ניטלת מאיתנו השליטה על הגוף, החשיבה ואף הרגשות שלנו... התגובות שלנו נשלטות על ידי סט מובנה של תכונות הטבוע בנו. השליטה חוזרת אלינו רק בחלוף הסכנה. יש אומרים שזוהי "אפליקציה" שהוטבעה בנו על ידי ניסוי וטעיה של הטבע. במידה מסוימת מנגנון כזה מציע דרך ליישום החוק הראשון של הרובוטיקה. האם ניתן לנטרל את ה"רצון החופשי", של בוט AI כשהוא מעריך שאדם צפוי להיפגע?

איזה סכנות מנגנון שליטה כזה טומן בחובו? ולילופין האם ניתן לתכנת רובוט שהוא אלטרואיסט בכל מצב?


4.

יותר ויותר אנשים מתייחסים לסכנות שמציבה אינטליגנציה מלאכותית למין האנושי.

המדען והסופר איזק אסימוב הציע לתבנת לתוך הרובוטים 3 חוקים המונעים מצב בו רובוטים יפגעו בבני אדם

או יאפשרו פגיעה בבני אדם. החוק הראשון קובע:

"לא יפגע רובוט לרעה בבן אדם; ולא יניח, במחדל, שאדם ייפגע" (תרגם עימנואל לוטם).

[מתוך שלושת חוקי הרובוטיקה - ערך בויקיפדיה]


חוק האפס של אסימוב שפותח בהמשך ספריו מדבר על החוק בעל העדיפות העליונה - לא יניח רובוט שמעשה או במחדל שהאנושות תיפגע.


איזה סוג של AI יש לפתח על מנת לממש חוקים אלה?


לקריאה נוספת

שליטה ב AI יכולה לתת לבעליה כוח עצום. ממניפולציות תודעתיות עד השתלטות על משאבים ושיטחי קרקע.

מה יקרה כשתוכנות AI יתוכנתו להילחם זו בזו במטרה לשבש זו את זו? מה יהייה הפתרון שלהן?כיום תכנתים ולוחמי סייבר פועלים על ידי ביזור חלקי התוכנה והסוואתה - מה יהייה הפתרון של תוכנת ה AI? האם היא תגיע לפתרון ה"אבולוציוני"? האם היא תגיע לביזור לתתי-תוכנה שכל אחת מהן תהייה "בצלמה" של תוכנת המקור? תכיל "DNA" ובסיס ידע יסודי? ראו גם בפוסט:







תודה למרב דולב האהובה

שהשתעשעה איתי שעה ארוכה ומהנה בנסיונות בחינה של גבולות היכולת של chat GPT -

יעל 18-01-23



Comments


  נוירופדגוגיה ישראלית.  נוירופדגוגיה מנגנונית.  נוירופדגוגיה מעשית.   פדגוגיה עצמית.   ניירוטריט.   חשיבה מנגנונית.   חקר מוח יישומי.    התמכרות. 

 

   ד"ר אהוד נורי             ד"ר יעל עדיני

 

 

 

כל הזכויות שמורות ©                                                                                         

  • Facebook
bottom of page