בינה מלאכותית | התפתחויות בסוגיות משפטיות

7 מאי, 2024


עדכון רבעוני – רבעון 1/2024

הפרלמנט האירופי אישר את חוק הבינה המלאכותית (AI Act).

ב-13 במרץ, 2024, אישר הפרלמנט האירופי את חוק הבינה המלאכותית של האיחוד האירופי (להלן: "חוק הבינה המלאכותית"). חוק הבינה המלאכותית מהווה מסגרת חקיקה שנועדה לגבש אסדרה בתחום הבינה מלאכותית ולטפח את פיתוח תחום הבינה מלאכותית ואת היתרונות הגלומים בו, תוך צמצום הסיכונים הפוטנציאליים באמצעות החלת גישה רגולטורית מאוזנת בשוק הפנימי של האיחוד האירופי. הסעיפים העיקריים בחוק הבינה המלאכותית עוסקים בנושאים הבאים:

  • היקף התחולה. חוק הבינה המלאכותית יחול על ישויות פרטיות וציבוריות, הן בתוך האיחוד האירופי והן מחוצה לו, במקרים בהם השימוש במערכות הבינה המלאכותית נעשה בתחומי שוק האיחוד האירופי, או כאשר השימוש במערכות אלו משפיע על תושבי האיחוד האירופי. לכן, החוק צפוי לחול על ספקים, מפעילים, יבואנים, מפיצים של מערכות בינה מלאכותית או ספקים של מודלים של בינה מלאכותית כללית (General Purpose AI models).
  • סיווג מערכות בינה מלאכותית. בהתאם לגישה מבוססת-סיכונים, חוק הבינה המלאכותית מסווג מערכות בינה מלאכותית לקטגוריות הבאות: סיכון נמוך או מינימלי; סיכון גבוה; סיכון בלתי מתקבל על הדעת; ומודל בינה מלאכותית כללי – על כל אחד מהם יחולו חובות חוקיות שונות. מערכות בינה מלאכותית המציבות רמת סיכון נמוכה יהיו כפופות לחובות מעטות ורק במקרים מסוימים, בעוד שמערכות בעלות סיכון גבוה יעמדו בפני דרישות וחובות רבות, והשימוש במערכות בינה מלאכותית שמציבות סיכון בלתי מתקבל על הדעת, ככלל – ייאסר. מודלים של בינה מלאכותית כללית, ובמיוחד מודלים המציבים סיכונים מערכתיים, יהיו כפופים לדרישות וחובות ספציפיות נוספות.
  • דרישות וחובות. מאחר וחוק הבינה המלאכותית מיועד בעיקר לטפל במערכות בינה מלאכותית הנושאות בחובן סיכון גבוה, סיווג נכון של מערכות הבינה מלאכותית מהווה נושא בעל חשיבות מכרעת – מערכות בינה מלאכותית בעלות סיכון גבוה כוללות מערכות בינה מלאכותית המפורטים בחוק הבינה המלאכותית עצמו. מערכות אלו יהיו כפופות לחובות משמעותיות, לרבות, בין השאר, בקשר עם ניהול סיכונים, בחינת השלכות השימוש במערכות, איכות נתונים, שקיפות ופיקוח אנושי.
  • בינה מלאכותית כללית. חוק הבינה המלאכותית מחייב עמידה בדרישות ספציפיות נוספות החלות על בינה מלאכותית למטרה כללית (General Purpose AI), לרבות בקשר עם דרישות תיעוד ספציפיות בנוגע לתהליך אימון והבדיקה של מודל הבינה המלאכותית, או ביסוס מדיניות שתבטיח ציות לדיני זכויות יוצרים. דרישות נוספות יחולו על מודלים המציבים סיכונים מערכתיים.
  • קוד התנהגות. הנציבות האירופית מעודדת ספקים של מערכות בינה מלאכותית ללא סיכון גבוה לאמץ קוד התנהגות וולונטרי, כדי לחזק את האמינות והציות לכללים.
  • קנסות. במקרים של אי-ציות להוראות חוק הבינה המלאכותית, הרשויות רשאיות להטיל קנסות בשיעור של עד 35 מיליון אירו או בשיעור של 7% מהמחזור העולמי בשנה הקודמת בגין אי-ציות הנוגע לפרקטיקות אסורות, וקנסות בשיעור של 15 מיליון אירו או 3% בגין אי-עמידה בדרישות רגולטוריות אחרות, ו-7.5 מיליון אירו או 1% בגין מסירת מידע כוזב לרשויות. בעוד שככלל יחול הסכום הגבוה מבין השניים, ביחס לחברות סטארט-אפ יחול הסכום הנמוך מבין השניים. 

ככלל, תחולת חוק הבינה המלאכותית תחל שנתיים לאחר כניסתו לתוקף – ככל הנראה בשנת 2026 – למעט החריגים הבאים: 

  • תחולת המגבלות על פרקטיקות אסורות תחל שישה חודשים לאחר כניסתו של חוק הבינה המלאכותית לתוקף – בשלהי שנת 2024. 
  • חובות מסוימות, לרבות חובות הנוגעות לשקיפות או בקשר עם מודלים של בינה מלאכותית כללית, יחולו 12 חודשים לאחר כניסתו לתוקף – ככל הנראה בשנת 2025. 
  • כללי הסיווג והחובות הנלוות בנוגע לבינה מלאכותית בסיכון גבוה, יחולו 36 חודשים לאחר כניסתו לתוקף – ככל הנראה בשנת 2027. 

הנציבות האירופית מקימה את משרד הבינה המלאכותית האירופי (AI Office).

הנציבות האירופית הקימה את משרד הבינה המלאכותית האירופי, שנועד לאפשר קידום ושימוש בטוח בכלי בינה מלאכותית, לצד תמיכה באכיפת חוק הבינה המלאכותית. בין שאר מטרותיו, המשרד יתמקד בפיקוח על הציות לתקנות הבינה המלאכותית ובקידום שיתוף פעולה עולמי ביוזמות ממשלתיות הקשורות בבינה מלאכותית. תפקידו העיקרי יהיה לבחון יישומי בינה מלאכותית ויישום של חוק הבינה המלאכותית, בפרט בקשר לGeneral Purpose AI.

הפרות ה-GDPR על ידי OpenAI והחקירות בעניינה.

ב-29 בינואר, פרסמה הסוכנות האיטלקית להגנת מידע (Garante) הצהרה לפיה היא הודיעה ל-OpenAI על זיהוי הפרות ציות מצדה להוראות ה-GDPR, לאחר האיסור הזמני על עיבוד מידע שהטילה הסוכנות על OpenAI בשנה שעברה. ל-OpenAI ניתנו 30 יום להגיש תביעות שכנגד לטיפול בהפרות הנטענות. בתחילת חודש אפריל Garante  וחברת OpenAI נפגשו וסיכמו לשתף פעולה. OpenAI התחייבה לספק מסמך המפרט את הצעדים שבהם OpenAI  תנקוט על מנת לטפל בהפרות. בנוסף, ב-8 למרץ, פתחה הסוכנות האיטלקית בחקירה בעניין מודל הבינה מלאכותית "סורה" (Sora) של OpenAI, המיועד להפקת גרפיקה על בסיס הוראות טקסט, וזאת על רקע חששות הנוגעים להגנה על מידע אישי של אנשים פרטיים. OpenAI התבקשה למסור פרטים אודות תהליך ההדרכה שעובר האלגוריתם ולפרט באילו נתונים נעשה שימוש לצורך אימון המערכת, לרבות האם נעשה שימוש במידע אישי. כמו כן, התבקשה OpenAIלמסור מידע אודות האופן בו היא מתעתדת לציית לתקנות האיחוד האירופי להגנת מידע, לרבות לאופן בו OpenAIמתכוונת למסור הודעה למשתמשים (פוטנציאליים) אודות הליכי עיבוד המידע והבסיס החוקי לעיבוד. 

הודעות הסוכנות האיטלקית הגיעו לאחר פרסום הודעה דומה על ידי המשרד הפולני להגנת מידע אישי, שהודיע בחודש ספטמבר 2023 על חקירת תלונה לפיה OpenAI מעבדת מידע אישי באופן לא חוקי ובלתי שקוף. 

בחודש ינואר, העתיקה OpenAI את מקום מושבו של ה controller  האירופי שלה לאירלנד, כלומר, תביעות כנגד OpenAI יטופלו בעיקר על ידי הרשות האירית להגנת המידע, באופן שירסן את יכולתן של רשויות פיקוח אחרות לפתוח בחקירות עצמאיות. 

הלשכה הבריטית למדע, חדשנות וטכנולוגיה פרסמה קווים מנחים לפיתוח בינה מלאכותית.

הלשכה הבריטית למדע, חדשנות וטכנולוגיה פרסמה מדריך שכותרתו "מבוא לבקרת בינה מלאכותית", שמטרתו לסייע לחברות להבין את עקרונות הבקרה על בינה מלאכותית וליישם כללי מדיניות לבקרת בינה מלאכותית (להלן: "המדריך"). בקרת בינה מלאכותית כוללת למעשה פרקטיקות וכללי מדיניות שנודעו להניח את דעתם של הגופים הרגולטוריים ושל הציבור הרחב לכך שננקטים אמצעים להפחתת הסיכונים הנשקפים לכאורה ממערכות בינה מלאכותית. המדריך מהווה המשך לדו"ח שפורסם במרץ 2023 תחת הכותרת "גישה תומכת-חדשנות לאסדרה של בינה מלאכותית", המתאר את התוצאות שמערכות בינה מלאכותיות צפויות להשיג ובאילו כלים ניתן להשתמש כדי להשיג אותן. 

המדריך מפרט שיטות ונהלים שונים לקידום הבקרה על בינה מלאכותית. שיטות אלו כוללות ביצוע תסקירים שונים, כגון הערכת סיכונים, והערכת הציות לחוקים ולהנחיות הקיימות. הן גם כוללות ביצוע בדיקות למערכות על מנת להבטיח שהפלט שלהן תקף, אמין ובלתי מוטה. בנוסף, המדריך מפרט סוכנויות שונות שיכולות לסייע לחברות ליישם חלק מהליכים אלה. לבסוף, כולל המדריך רשימה המפרטת צעד אחר צעד את השלבים השונים שאמורה לכלול תוכנית לבקרת בינה מלאכותית. 

לשכת הממונה על המידע בבריטניה (ICO) פתחה בהתייעצות בנוגע לבינה מלאכותית גנרטיבית והגבלת מטרה.

הרשות להגנת מידע הבריטית, ה-ICO, פרסמה "קול קורא לקבלת חוות דעת" העוסקת ביישום של עקרון "הגבלת המטרה" המוכר מדיני הגנת הפרטיות בפיתוח ושימוש בכלי בינה מלאכותית גנרטיבית. ההתייעצות מפרטת את קו המחשבה של הרשות הבריטית בנוגע לפיתוח בינה מלאכותית גנרטיבית ואת חששות הסוכנות בקשר למגוון המטרות עבורן עשוי לשמש מידע אישי במסגרת פיתוח מערכת בינה מלאכותית גנרטיבית. הרשות הבריטית ממליצה למפתחים להגדיר מטרות ספציפיות ומפורטות לעיבוד מידע בכל אחד מהשלבים של מחזור הפיתוח. 

מדינת יוטה חוקקה את חוק הבינה המלאכותית (AI Bill).

בית המחוקקים של מדינת יוטה חוקק את חוק מדיניות בינה מלאכותית, המהווה "אסדרה רכה" המטפלת באמצעות דיני הגנת הצרכן הקיימים בסיכונים הנובעים מהשימוש בבינה מלאכותית. החוק דורש ממפעילים של מערכות בינה מלאכותית לגלות כראוי למשתמש-הקצה כי הוא או היא נמצאים במגע עם מערכת בינה מלאכותית. בנוסף, יוקם מכוח החוק המשרד למדיניות בינה מלאכותית, שתחומי האחריות שלו יכללו חקר התפתחויות בתחום הבינה המלאכותית, ייעוץ למחוקקים בנוגע למדיניות בינה מלאכותית וניהול תוכנית להפחתת חסמים רגולטוריים לניסוי של פיתוחים בתחום הבינה המלאכותית. התוכנית להפחתת החסמים הרגולטוריים תעניק למפתחים של מערכות בינה מלאכותית הקלה זמנית מהמגבלות הרגולטוריות, בכפוף לתנאים מסוימים. חברות שיפרו תקנה זו עלולות לספוג קנסות בסכום של עד 5,000 דולר ארה"ב עבור כל מקרה. חוק זה הוא חלק ממגמה כוללת בקרב המדינות בארה"ב, לפיה החקיקה מתקדמת בגישה הדרגתית, ולא באופן של קביעת מדיניות-על מקיפה להסדרת השימוש בבינה מלאכותית, זאת בשונה מהאופי של החקיקה המקודמת באיחוד האירופי.

רוצים לדעת עוד?
צרו קשר

שירי מנשה

ראש מחלקת שיווק ופיתוח עסקי

מתן בר-ניר

יועץ תקשורת, OH! PR