חדשות

פרופ' אש: "הרופאים הם השגרירים הטובים ביותר של בינה מלאכותית"

פרופ' נחמן אש השתתף השבוע בכנס ה-OECD בפריז בנושא חדשנות בבריאות, בהשתתפות שרי בריאות מ-38 מדינות | "רופאים חוששים משימוש ב'קופסה שחורה' - נדרשים הסברים לאינדיקציות של AI"

פרופ' נחמן אש, יו"ר הוועד המנהל של המכון הלאומי למדיניות בריאות, בכנס ה-OECD השבוע. צילום: יח"צ

"האמון של רופאים בשימוש בכלי בינה מלאכותית ברפואה חיוני כי הם השגרירים הכי טובים להגברת האמון של המטופלים. בישראל יש הבנה ופתיחות לחדשנות", אומר פרופ' נחמן אש, יו"ר הוועד המנהל של המכון הלאומי למדיניות בריאות, לשעבר מנכ"ל משרד הבריאות.

פרופ' אש נשא דברים השבוע בכנס ה-OECD שנערך בפריז ובו נדונו נושאי חדשנות בבריאות, תחת הכותרת: "OECD High-Level Policy Forum on the Future of People-Centered Health Innovation". הוא לקח חלק בפאנל פורום המדיניות, שמתקיים אחת לכמה שנים בהשתתפות שרי בריאות מ-38 מדינות ה-OECD.

בשיחה עם דוקטורס אונלי מספר פרופ' אש: "הכנס התמקד בארבעה נושאים: חדשנות בכלל; בינה מלאכותית; רפואה גנטית וגנומיקה והשלכות בריאותיות של ההתחממות הגלובלית", מספר פרופ' אש, שלקח חלק בפאנל שעסק בבינה המלאכותית (AI) ובו דנו באופן שבו בינה מלאכותית תשפיע בשנים הקרובות על אספקת שירותי בריאות וכיצד מדינות חייבות להחיש צעדים ולקבוע מדיניות ורגולציה. "כמו שקורה תמיד עם חדשנות, השטח רץ מהר עם פיתוחים שונים והרגולציה קצת מפגרת", אומר פרופ' אש ומביא כדוגמה את כניסת המחשוב לעולם הרפואה. "מדינות חייבות לפעול ולהשפיע", הוא אומר.

לדבריו, "כיום משמשים כלים של בינה מלאכותית בפיענוח של דימות ובדיקות פתולוגיות, כמו בפרויקט שקיים ב'מכבי', שבו כל הבדיקות הועברו למערכות דיגיטליות והבינה המלאכותית מאתרת מקומות חשודים, למשל לסרטן, בבדיקות הפתולוגיות וחוזה את חומרת המחלה, והמידע מועבר לרופאים. בישראל, גם הציבור וגם הרופאים מקבלים את החידושים".

אחד הנושאים שמטריד רופאים לגבי בינה מלאכותית הוא שאלת האחריות (Liability), ובהקשר זה מזכיר פרופ' אש סקר שנערך ב-OECD ועסק בהשפעת הבינה המלאכותית על כוח אדם רפואי. "בסקר שהובלתי ובו השתתפו ארגוני הרופאים במדינות שונות הם נשאלו על ההזדמנויות, החוזקות והסיכונים שבשימוש בבינה מלאכותית ועלה החשש מפני בעיות אתיקה חדשות שיצוצו עם שימוש בכלים אלו, החשש מאפליה והשאלה מי יהיה אחראי להמלצה שגויה שמקבל רופא מכלי בינה מלאכותית".

מה למדנו מהקורונה

עוד עסקו רבות בפאנל בנושא שוויון בשירותי רפואה. "כיוון שלמידת מכונה מתבססת על בסיס נתונים, אם בסיס הנתונים מוטה, הבינה המלאכותית תגביר את ההטיה וזה עלול להגדיל את אי השוויון", מסביר פרופ' אש. "מדובר באתגר גדול שדנו בו רבות וכן גם בשאלה איך להגביר את האמון בכלים הללו כך שגם מטפלים וגם מטופלים לא יחששו להשתמש בהם.

"נשאלתי מה למדנו מהקורונה וציינתי את חשיבות השימוש בדאטה בקבלת החלטות גם ברמה הלאומית. איסוף של דאטה לצורך קבלת החלטות אינו פשוט ולכן צריך להיערך לפן הזה ולתכנן איך אוספים נתונים במצבי חירום. בישראל נעשה איסוף נתונים שמאפשר תכנון לעתיד וכך גם נעשה במלחמה הנוכחית, הנתונים נאספים ומעובדים".

דוגמה נוספת לשימוש בבינה מלאכותית בתקופת הקורונה היא סיווג חומרת המחלה או הסיכון להידרדרות למחלה קשה, כלומר חיזוי באמצעות בינה מלאכותית. "זהו בעיני אחד השימושים היותר חשובים בבינה מלאכותית", אומר פרופ' אש, "לחזות מי מהחולים בסיכון גבוה יותר ולהתערב בזמן על מנת למנוע הידרדרות. הזכרתי את פרויקט CPI של ה'כללית', שמופעל למשל בסוכרת ובאוסטיאופורוזיס ומתריע לרופא המטפל לגבי חולים שלגביהם קיים סיכון גדול יותר לפתח מחלה קשה יותר ולכוון את ההתערבות הרפואית".

אש מציין גם את האופן שבו נרכש האמון בחיסונים בתקופת הקורונה כדוגמה לדרך שבה ניתן לייצר אמון גם בכלי הבינה המלאכותית. "בפאנל דנו גם בחשיבות השקיפות בהקשר זה, כך שיהיה ברור ויובן מה הכלי עושה, איך הוא פותח, על אילו נתונים הוא מתבסס וגם על סמך מה הוא מוציא המלצות. רופאים חוששים משימוש ב'קופסה שחורה', הם לא יודעים על סמך מה התקבלה ההמלצה של הבינה המלאכותית ולכן נדרשים הסברים לאינדיקציות של בינה מלאכותית".

פרופ' אש מסכם: "מצד אחד חשוב לרוץ קדימה אך לצד זאת יש לתת מענה לחששות ולפחדים".

נושאים קשורים:  בינה מלאכותית,  פרופ' נחמן אש,  חדשות,  OECD,  כנס,  חדשנות ברפואה
תגובות