השוואת ביצועי מודלים גדולים של שפה בהכשרה לשיקום וסטיבולרי: ואנשי מקצוע קליניים ChatGPT, Google Gemini 1 ליאורה שמואלי 3,2 יואב גימון, 2,יעל ארבל המח’ לניהול, הפקולטה למדעי החברה, אונ’ בר אילן 1 המח’ לפיזיותרפיה, הפקולטה למדעי הרווחה והבריאות, אונ’ חיפה 2 מח׳ אא”ג וניתוחי ראש צוואר, בית החולים ע”ש שיבא, תל השומר 3 רקע: שיקום וסטיבולרי מצריך ידע קליני מדויק ושיקול דעת מקצועי, אך פערי ידע קיימים מהווים אתגר בהכשרה ובהפצה של משמשים ככלי Google Gemini ו- ChatGPT ) כמו LLMs פרקטיקות מבוססות. בעידן הדיגיטלי, מודלים גדולים של שפה ( עזר ללמידה ולהדרכה, אך נדרש לבחון את דיוקם ואת יכולתם להתמודד עם חשיבה קלינית מורכבת. מטרות/שאלת המחקר: מול פיזיותרפיסטים מנוסים וסטודנטים לפיזיותרפיה Google Gemini ו- ChatGPT המחקר ביקש להשוות את ביצועי על ידי ChatGPT במענה לשאלות רב-ברירה בתחום השיקום הווסטיבולרי. בנוסף, נבחנו איכות ודיוק התשובות שסיפק שלושה אוטונוירולוגים מוסמכים. שיטת המחקר: שאלות, 20 ) הכולל VKT שלושים פיזיותרפיסטים מנוסים ושלושים סטודנטים השלימו את מבחן הידע הווסטיבולרי ( התבקשו להשיב Gemini ו- ChatGPT המחולקות לשלוש קטגוריות: ידע קליני, פרקטיקה קלינית בסיסית וחשיבה קלינית. על אותן שאלות. שלושה אוטונוירולוגים העריכו את התשובות לפי סולם בן ארבע רמות – מתשובה מקיפה ועד שגויה לחלוטין. תוצאות: ), אך 100%( . שני המודלים הצטיינו בקטגוריית הידע הקליני Gemini עבור 60% , לעומת 70% השיג ציון כולל של ChatGPT מהתשובות 45% ). האוטונוירולוגים העריכו כי ChatGPT: 50%, Gemini: 25%( הציגו ביצועים נמוכים יותר בחשיבה קלינית בקטגוריות הידע 50% היו שגויות לחלוטין. שיעור התשובות המקיפות היה 25%- היו מקיפות, בעוד ש ChatGPT של בחשיבה קלינית. 25% הקליני והפרקטיקה הבסיסית, אך רק מסקנות והמלצות: מפגינים יכולת מרשימה בזיהוי ידע קליני, רמת החשיבה הקלינית שלהם Gemini ו- ChatGPT למרות שמודלים כמו מוגבלת. השימוש בהם מחייב זהירות, ניסוח מדויק של שאלות ואימות מקצועי. שילוב מודלים אלה עם מומחיות קלינית , נבדקו גם LL והנחיות טיפוליות עשוי להעצים את הלמידה ולהפחית את הסיכונים. לצורך בחינת שיפור בביצועים של גרסאות מתקדמות יותר של המודלים. ממצאים אלה נמצאים בתהליך הערכה ויוצגו בהמשך.
RkJQdWJsaXNoZXIy MjgzNzA=