חדשות

ה-WHO פרסם הנחיות רגולטוריות לשימוש בבינה מלאכותית

מטרת ההנחיות החדשות להסדיר את השימוש בבינה המלאכותית במערכות הבריאות, תוך דגש על שמירת פרטיות, אבטחת מידע ונתונים מהימנים

בינה מלאכותית בשימוש הרפואה. אילוסטרציה

ארגון הבריאות העולמי (WHO) פרסם בשבוע שעבר מסמך חדש העוסק ברגולציה בנושא בינה מלאכותית (AI) בתחום הבריאות. המסמך עוסק בחשיבות השימוש הבטיחותי והיעיל במערכות בינה מלאכותית, שימוש במערכות בינה מלאכותית למי שזקוק להן ודיאלוג בין בעלי עניין, לרבות מפתחים, רגולטורים, יצרנים, עובדי בריאות וחולים.

"עם הזמינות הגוברת של נתוני שירותי בריאות וההתקדמות המהירה בטכניקות אנליטיות - בין אם למידת מכונה, מבוססת לוגיקה או סטטיסטית - כלי AI יכולים לשנות את מגזר הבריאות", נכתב במסמך.

הפרסום החדש של הארגון נועד להניח עקרונות שממשלות ורשויות רגולטוריות יכולות לפעול לפיהם כדי לפתח הנחיות חדשות או להתאים הנחיות קיימות בנושא AI ברמה הלאומית או האזורית.

ארגון הבריאות העולמי מכיר בפוטנציאל של AI בשיפור ניסויים קליניים, שיפור אבחנות, ייעול תהליכים קליניים והרחבת הנגישות לשירותי בריאות איכותיים ומציין עוד כי בינה מלאכותית יכולה להועיל במסגרות שבהן קיים מחסור במומחים רפואיים, למשל בפיענוח בדיקות וצילומי רדיולוגיה.

לצד זאת, הארגון מציין כי קיים חשש מפני פגיעה בפרטיות המטופלים, הטיות בנתונים וסיכוני אבטחת מידע. ארגון הבריאות העולמי מדגיש כי יש לבצע בדיקות יסודיות של אמינות האלגוריתמים לפני הטמעה שלהם בסביבה קלינית, תוך שמירה קפדנית על אבטחת מידע. כמו כן, שיש לוודא שה-AI מהווה כלי מסייע בידי הרופא ולא מחליף אותו.

הפרסום מבקש לסייע בהגדרות ובתחזוקה של מערכות בינה מלאכותית בתחום הבריאות: "טכנולוגיות בינה מלאכותית מיושמות במהירות, לפעמים ללא הבנה מלאה של הביצועים שלהן, מה שעלול להזיק למשתמשי קצה, כולל אנשי מקצוע בתחום הבריאות וחולים. בעת שימוש בנתוני בריאות, למערכות בינה מלאכותיות עשויה להיות גישה למידע אישי רגיש, מה שמחייב מסגרות חוקיות ורגולטוריות חזקות לשמירה על פרטיות ואבטחת המידע", צוין.

"בינה מלאכותית טומנת בחובה הבטחה גדולה לבריאות, אבל גם מגיעה עם אתגרים רציניים, כולל איסוף נתונים לא אתיים, איומי אבטחת סייבר והגברת הטיות או מידע מוטעה", אמר ד"ר טדרוס אדהנום ג'ברייסוס, מנכ"ל ארגון הבריאות העולמי. "הנחיות חדשה זו תתמוך במדינות להסדיר את הבינה המלאכותית ביעילות, לרתום את הפוטנציאל שלה, בין אם בטיפול בסרטן ובין אם בגילוי שחפת, תוך מזעור הסיכונים".

הפרסום מתאר שישה תחומים לרגולציה של בינה מלאכותית לבריאות: שקיפות ותיעוד, בין השאר באמצעות תיעוד כל מחזור חיי המוצר ומעקב אחרי תהליכי פיתוח; ניהול סיכונים, כולל הקפדה על "שימוש מתוכנן", "למידה מתמשכת", התערבויות אנושיות, מודלים של הדרכה ואיומי אבטחת סייבר, עם מודלים פשוטים ככל האפשר; אימות חיצוני של נתונים והבהרה לגבי השימוש המיועד בבינה מלאכותית למען בטיחות ולהקלה על רגולציה; מחויבות לאיכות נתונים באמצעות ביקורת קפדנית על מערכות למניעת הטיות ושגיאות.

התקנות מעלות אתגרים חדשים כמו לגבי הגנת המידע הכללית (GDPR) באירופה וחוק הניוד והאחריות של ביטוח בריאות (HIPAA) בארה"ב, עם דגש על הבנת היקף השיפוט ודרישות הסכמה בנושאי פרטיות והגנה על נתונים.

ב-WHO מציינים כי טיפוח שיתוף פעולה בין גופים רגולטוריים, חולים, אנשי מקצוע בתחום הבריאות, נציגי התעשיה ושותפים ממשלתיים, יכול לעזור בניסיון להבטיח שהמוצרים והשירותים יישארו תואמים לרגולציה.

"מערכות בינה מלאכותית הן מורכבות ותלויות לא רק בקוד שהן בנויות ממנו אלא גם בנתונים שעליהן הן מאומנות, שמגיעים מהגדרות קליניות ומאינטראקציות עם משתמשים. רגולציה טובה יותר יכולה לסייע בניהול הסיכונים של הטיות AI", נכתב. "על מנת להפחית את הסיכונים, יש להשתמש בתקנות כדי להבטיח שמאפיינים כמו מגדר, מוצא אתני, גזע ועוד מדווחים ומיוצגים".

נושאים קשורים:  בינה מלאכותית,  רגולציה,  חדשות,  ארגון הבריאות העולמי,  מערכות בריאות
תגובות