בינה מלאכותית | עדכון רבעוני | רבעון 3/24

5 נובמבר, 2024


 בספטמבר 2024, הגוף המייעץ לאומות המאוחדות בנושא בינה מלאכותית פרסם את הדוח "Governing AI for Humanity", שנועד לייצר בסיס לרגולציה של בינה מלאכותית תחת החוק הבינלאומי. הדוח מבהיר שהחוק הבינלאומי חל על בינה מלאכותית ומציע המלצות לטיפול בפערי משילות קיימים. בין היתר, מוצע לפתח מאגר מידע גלובלי שיבטיח זמינות ושימוש לבעלי העניין בכל המדינות, שיתוף פעולה בקביעת הסטנדרטים לבינה מלאכותית, והקמת משרד ייעודי לבינה מלאכותית באו"ם.

ישראל

  • הנציבות האירופית וישראל חתמו על אמנה גלובלית לרגולציה של בינה מלאכותית. בספטמבר 2024, ישראל הצטרפה לאמנת המסגרת של מועצת אירופה על בינה מלאכותית, ההסכם הבינלאומי המחייב הראשון על בינה מלאכותית. האמנה מחייבת את ישראל ליישם אמצעים המבטיחים שהשימוש במערכות בינה מלאכותית לאורך כל מחזור חייהן ישמור על כבוד האדם, פרטיות, שוויון, שקיפות, חדשנות בטוחה, בטיחות ואמינות. היא גם מחייבת אימוץ אמצעים להערכת סיכונים ולהפחתתם, ולהבטחת עמידה בתנאי הרגולציה באמצעות פיקוח יעיל.

אירופה

הרשות פרסמה הנחיות על השימוש בבינה מלאכותית בשירותי השקעות קמעונאיים, בדגש על כיצד ניתן להציע שירותי בינה מלאכותית בהתאם לדירקטיבת שווקי מכשירים פיננסיים (MIFID II), אשר חלה גם על גופים מחוץ לאיחוד האירופי המציעים שירותי השקעות או מבצעים פעילויות השקעה באיחוד האירופי. ההצהרה מחייבת חברות ליידע את הלקוחות באופן ברור על תפקיד הבינה המלאכותית בהחלטות השקעה, לפקח על פיתוח הבינה המלאכותית, ניהול סיכונים, להבטיח שהעובדים מיומנים בטכנולוגיות בינה מלאכותית ולשמור תיעוד מפורט של השימוש בבינה מלאכותית ותלונות של לקוחות. בנוסף, מערכות הבינה המלאכותית חייבות להתאים למטרות הפיננסיות של הלקוחות ולהיות מותאמות לשווקי היעד.

מאז השקת ChatGPT רשויות פיקוח שונות חקרו את OpenAI על הפרות אפשריות של הוראות אבטחת מידע. באפריל 2023, מועצת אבטחת המידע האירופית הקימה כוח משימה לבחינת הפרקטיקות של OpenAI, שפרסם לאחרונה דוח ובו ממצאיו הראשונים ביחס לעיבוד מידע אישי על ידי החברה. הנקודות העיקריות בדוח הן:

  • ChatGPT חייב להבטיח עמידה בכללי GDPR מבלי להעביר את האחריות לבעלי המידע בכל הנוגע ל"תשומות" שלהם, שכן יש בכך כדי להטיל עליהם נטל לא הוגן.
  • הקושי להודיע לכל בעלי המידע על איסוף הנתונים האישיים באמצעות קצירת מידע עשוי להצדיק פטור מדרישות ההודעה.
  • מכיוון שהמודל הנוכחי של ChatGPT עשוי להפיק תוצרים מוטים, על בעל השליטה בעיבוד המידע להודיע למשתמשים על אופן יצירת התוצאות ואמינותן המוגבלת, וכן להצהיר כי התוצאה עשויה להיות מוטה.
  • בנוסף, הדוח ממליץ על אמצעי הגנה ספציפיים כמו אנונימיזציה והשמטה של נתונים רגישים במהלך אימון המערכת.

ארה"ב

בעקבות אימוץ הרגולציה החלוצית של קולורדו במאי 2024, שמבוססת על הסיכונים השונים שנשקפים מבינה מלאכותית (שעליה דיווחנו בעדכון הקודם שלנו), באוגוסט 2024 אילינוי תיקנה את חוק זכויות האדם של המדינה כדי לטפל בשימוש בבינה מלאכותית במסגרת העסקת עובדים. התיקון אסר על מעסיקים להשתמש בבינה מלאכותית להחלטות הקשורות לתעסוקה, כאשר אלו עלולות להוביל לאפליה על בסיס השימוש בכלים מבוססי בינה מלאכותית. בנוסף, הוא מחייב מעסיקים להודיע לעובדים כאשר הם משתמשים בבינה מלאכותית לקבלת החלטות הקשורות בתעסוקה. הרגולציה תיכנס לתוקף החל מינואר 2026.

במאי 2024, משרד הבריאות ושירותי האנוש סיפק פרשנות לסעיף 1557 של ה-Affordable Care Act, האוסר על אפליה מצד גופי בריאות המקבלים מימון פדרלי ("גופים מוסדרים"). בהתאם, משרד הבריאות ושירותי האנוש דורש מגופים מוסדרים לקיים מאמצים סבירים על מנת לזהות כלים של בינה מלאכותית המשתמשים במנגנונים מפלים או עשויים להפיק תוצאות מפלות. כאשר נמצאת אפליה כזו, הגופים המוסדרים חייבים ליישם אמצעים להפחתת הסיכון לאפליה הנובעת משימוש כזה. חובות אלו ייכנסו לתוקף במאי 2025.

  • קליפורניה מציגה שני חוקים חשובים על בינה מלאכותית.

ב-29 באוגוסט 2024, בית המחוקקים של קליפורניה אישר את החוק "בינה מלאכותית יוצרת: שקיפות במידע המשמש לאימון", המחייב מפתחים של מערכות או שירותי בינה מלאכותית יוצרת הזמינים לתושבי קליפורניה לחשוף מידע על מערכי המידע ששימשו לפיתוח ואימון מערכות אלו. המפתחים חייבים לחשוף (1) את המקורות והבעלים של מערכי המידע; (2) תיאור כיצד מערכי המידע מקדמים את מטרת מערכת הבינה המלאכותית; (3) האם מערכי המידע כוללים נתונים קנייניים; (4) האם מערכי המידע מכילים מידע אישי או מידע צרכני מצטבר. החוקי יכנס לתוקף בינואר 2026.

החוק "חדשנות בטוחה ומאובטחת למודלים של בינה מלאכותית מתקדמת" (SB 1047) שאושר גם הוא בקונגרס באוגוסט 2024, מחייב מפתחים של מודלים מסוימים של בינה מלאכותית (1) להטמיע את היכולת לכבות את מערכת הבינה המלאכותית לחלוטין; (2) לקיים פרוטוקולי בטיחות כדי להימנע מסיכון בלתי סביר לנזק קריטי ולמנוע גישה לא מורשית; (3) להעריך את פוטנציאל המערכת לגרום או לאפשר נזק חמור; (4) לדווח במהירות על תקריות בטיחות בבינה מלאכותית המגדילות את הסיכון לנזק חמור. החוק מסמיך את התובע הכללי של המדינה לנקוט בהליכים אזרחיים נגד הפרות שגורמות לנזק חמור. בעקבות קריאות רבות מצד מחוקקים פדרליים ובעלי עניין בתעשייה, המושל של קליפורניה החליט להטיל וטו על החוק, וקרא לחקיקה מאוזנת יותר בתחום זה. קליפורניה משמשת כמרכז משמעותי לבעלי עניין מרכזיים בתחום הבינה המלאכותית.

אירופה 


פרסום זה מוגש כפרסום זה מסופק כשירות ללקוחותינו ועמיתינו, יודגש כי כל מקרה ספציפי דורש בדיקה ודיון פרטני בכתב.

המידע המוצג כאן הוא כללי ואינו מיועד לענות על הנסיבות הייחודיות של כל אדם או ישות. למרות שאנו שואפים לספק מידע מדויק וזמין, איננו יכולים להבטיח את דיוק המידע ביום קבלתו, ולא שהמידע ימשיך להיות מדויק בעתיד. אל תפעלו על סמך המידע המוצג ללא ייעוץ מקצועי מתאים לאחר בדיקה מקיפה ויסודית של המצב הספציפי.

רוצים לדעת עוד?
צרו קשר

שירי מנשה

ראש מחלקת שיווק ופיתוח עסקי

מתן בר-ניר

יועץ תקשורת, OH! PR