קונפליקט אינטרסים: איך 24 גופים פיננסיים השפיעו על עיצוב רגולציית הבינה המלאכותית

אתמול (21 דצמבר 2025) פורסם דוח מקיף בן 207 עמודים שעוסק באחד הנושאים החשובים והמורכבים ביותר בסקטור הפיננסי כיום:    השפעת הבינה המלאכותית על פעילות הסקטור. הדוח, שהוכן על ידי צוות בין-משרדי הכולל נציגים מרשות ניירות ערך, בנק ישראל, רשות שוק ההון, משרד האוצר, משרד המשפטים ורשות התחרות, מתמודד עם שאלות מורכבות: כיצד לווסת טכנולוגיה שמתפתחת במהירות כה גבוהה? איך לאזן בין עידוד חדשנות לבין הגנה על הצרכנים? ומה הכללים שצריכים לחול על בנקים, חברות ביטוח ובתי השקעות שמשתמשים במערכות בינה מלאכותית?

אבל במקום להתמקד בתוכן הרגולטורי עצמו, מאמר זה בוחר לבחון את התהליך – תהליך ייחודי ומרתק שקרה בדרך מדוח הביניים (אוקטובר 2024) לדוח הסופי (דצמבר 2025):    הערות הציבור.

מה זה בכלל "הערות הציבור"? ולמה זה מעניין?

"הערות הציבור" הוא מנגנון דמוקרטי בתהליך העיצוב הרגולטורי. הרעיון פשוט: לפני שהרגולטור מגבש כללים סופיים שיחייבו את כולם, הוא מפרסם טיוטה ראשונית (דוח ביניים) ומזמין את הציבור להגיב – לשבח, לבקר, להציע שינויים, להצביע על בעיות שהרגולטור לא חשב עליהן.

במקרה של דוח הבינה המלאכותית, התקבלו 24 מסמכי הערות ציבור מגופים פיננסיים, חברות טכנולוגיה, ארגוני צרכנים, אקדמאים ויועצים משפטיים. כל הערה כזו היא חלון למחשבות, לחששות ולאינטרסים של מי שיצטרך לחיות עם הרגולציה.

למה זה מעניין? הקונפליקט המובנה

תהליך הערות הציבור מעניין במיוחד כי הוא חושף את הקונפליקט המובנה בין שני צדדים:

מצד אחד – הרגולטור:

– מטרתו להגן על הציבור, על יציבות המערכת הפיננסית, על זכויות הצרכנים

– חושש מסיכונים כמו: אפליה, פגיעה בפרטיות, מניפולציה, חוסר שקיפות

– הגישה האינהרנטית: "טוב יותר להיות זהירים מדי מאשר להצטער אחר כך"

מצד שני – הגופים המפוקחים (הבנקים, חברות הביטוח, בתי ההשקעות):

– מטרתם: חדשנות, יעילות, תחרותיות, רווחיות

– חוששים מרגולציה מכבידה שתגביל את היכולת להשתמש בטכנולוגיה

– גישה: "רגולציה יתר תחניק חדשנות ותפגע בלקוחות

והציבור ? נמצא בין שני אלו – הוא גם נהנה מהחדשנות (מוצרים טובים יותר, מחירים נמוכים) וגם זקוק להגנה (מפני אפליה, פגיעה בפרטיות, החלטות שגויות).

כשבוחנים את הערות הציבור לדוח הבינה המלאכותית, רואים את הקונפליקט הזה במלוא עוצמתו. במאמר זה נבחן שלוש דוגמאות שמדגימות זאת בצורה מצוינת.

דוגמה 1: מה בעצם זו "בינה מלאכותית"? – הקרב על ההגדרה הרגולטורית (מיקום בדוח הסופי: עמוד 54   (

א. העמדה הראשונית של הצוות (בדוח הביניים)

הצוות הציע הגדרה רחבה של בינה מלאכותית, בדומה להגדרות המקובלות בעולם (איחוד אירופי, ארה"ב). ההגדרה כללה כל מערכת מבוססת מחשב שמסוגלת לבצע משימות שדורשות בדרך כלל בינה אנושית – לימוד, ניבוי, קבלת החלטות, המלצות וכדומה.

הרציונל: להכין את הרגולציה לעתיד, לכסות מגוון רחב של טכנולוגיות שעשויות להתפתח.

ב. הערות הציבור – החשש מ"רגולציה רחבה מדי"

מה אמרו המעירים: התקבלו התייחסויות הנוגעות לחשש כי הגדרת בינה מלאכותית תהיה רחבה מדי ותכלול גם מערכות שיכולותיהן ותפקידיהן אינם מצדיקים טיפול רגולטורי מיוחד   .

ההצעות שהועלו:

– לצמצם את ההגדרה ולהתמקד רק במערכות מתקדמות ומשמעותיות

– למקד את ההגדרה בסיכונים הנוגעים ללקוחות הגופים הפיננסיים

– להוציא מערכות אוטומטיות פשוטות מהרגולציה

הרציונל מאחורי ההערות:

הגופים הפיננסיים חששו שהגדרה רחבה תגרום לכך שגם מערכות פשוטות (למשל, מחשבון אוטומטי לחישוב ריבית) ייחשבו כ"בינה מלאכותית" ויחייבו עמידה בדרישות רגולטוריות מורכבות ויקרות. זה עלול ליצור נטל בירוקרטי כבד ולהרתיע מחדשנות.

ג. החלטת הצוות הסופית

הצוות לא קיבל את ההצעה לצמצם את ההגדרה, אך הוסיף מנגנון גמישות   :

"בד בבד, לנוכח הערות הציבור, נערך תיקון לפיו בהתאם להנחיות הרגולטור, גוף פיננסי יוכל להחליט כי מערכת מבוססת מחשב אינה מהווה, על פי מהותה, מערכת בינה מלאכותית. שיקול דעת זה יוכל לאפשר התמודדות עם מצבים בהם ניכר שהמערכת המדוברת אינה מערכת בינה מלאכותית, אף שההגדרה עשויה לחול עליה מבחינה פורמלית."

ד. ניתוח הקונפליקט

זהו קונפליקט בין ודאות לעומת גמישות   :

הרגולטור רצה הגדרה רחבה כדי לוודא שלא יהיו "חורים" ברגולציה, שלא ייווצר מצב שבו טכנולוגיה מתקדמת תחמוק מפיקוח רק בגלל שהיא לא מתאימה להגדרה צרה מדי.

התעשייה חששה מכך שהגדרה רחבה תיצור "false positives" – מערכות פשוטות שלא באמת מהוות סיכון אך ייאלצו לעבור דרישות רגולטוריות מסורבלות.

הצוות בחר בגישה היברידית –    "trust but verify"   : שמור על הגדרה רחבה (ודאות), אך תן לגופים הפיננסיים אפשרות להחריג מערכות ברורות (גמישות), בכפוף לאישור הרגולטור. זה "שסתום בטיחות" שמאפשר להתמודד עם מצבים קיצוניים מבלי לפגוע בעקרון.

הלקח: זו דוגמה איך הערות ציבור יכולות להשפיע לא על עצם העיקרון, אלא על    האופן שבו הוא מיושם – הרגולטור לא ויתר על ההגדרה הרחבה, אך הוסיף מנגנון שמקטין את החשש המעשי מ"רגולציה יתר".

דוגמה 2: האם בן אדם תמיד עדיף על בינה מלאכותית? – הדיון על מעורבות אנושית (מיקום בדוח הסופי: עמוד 66)  

א. העמדה הראשונית של הצוות (בדוח הביניים)

הצוות המליץ על מעורבות אנושית בהחלטות משמעותיות שמערכות בינה מלאכותית מקבלות. הרעיון: צריך להיות בן אדם "בלופ" שיכול לעצור, לבחון מחדש ולתקן החלטות שגויות של המכונה.

דגש מיוחד ניתן להחלטות "שליליות" ללקוח – דחיית בקשה לאשראי, סירוב לכיסוי ביטוחי, ועוד.

ב. הערות הציבור – "מעורבות אנושית לא תמיד טובה"

טענה מפתיעה שהועלתה : "במסגרת הערות הציבור לדוח הביניים היו מעירים שטענו כי מעורבות אנושית אינה עדיפה על בינה מלאכותית, ועל כן דרישה למעורבות אנושית לא בהכרח תיטיב עם הלקוחות והיא אף צפויה לפגוע ביעילות מערכת הבינה המלאכותית   ."

הצעה שניה – "תנו קריטריונים ברורים":

מעירים אחרים לא טענו נגד העיקרון של מעורבות אנושית, אך    סברו כי ההמלצות צריכות להיות קונקרטיות יותר   . הם ביקשו:

– קריטריונים ברורים למקרים שבהם חובה מעורבות אנושית

– קריטריונים למקרים שבהם אין צורך במעורבות אנושית

טענה מעניינת נוספת – גם "כן" יכול להזיק: באופן ספציפי נטען כי ההמלצה לפיה מעורבות אנושית נחוצה יותר ביחס להחלטות 'שליליות' ללקוח אינה נכונה שכן  גם החלטות 'חיוביות' לכאורה (למשל, החלטה לאשר בקשה להלוואה) עלולות לפגוע בלקוחות   ."

הרעיון: אם הבינה המלאכותית מאשרת הלוואה גדולה מדי למי שלא יוכל להחזיר אותה, זו החלטה "חיובית" שבעצם פוגעת בלקוח. גם כאן צריך פיקוח!

ג. החלטת הצוות הסופית

הצוות לא שינה את העיקרון – מעורבות אנושית נשארה המלצה מרכזית. אולם, בעקבות ההערות:

– הובהר שצריך קריטריונים ברורים יותר מתי נדרשת מעורבות

– נשקל הצורך לבחון גם החלטות "חיוביות"

– הוכר שיש מקרים בהם בינה מלאכותית עדיפה

ד. ניתוח הקונפליקט

זהו קונפליקט בין בטיחות לעומת יעילות, ובין אמון בבני אדם לבין אמון במכונות   :

הרגולטור פועל מתוך הנחה בסיסית: בני אדם יכולים לעצור דברים שמשתבשים. זו גישה של "fail-safe". מישהו צריך להיות אחראי, לא רק אלגוריתם.

התעשייה טוענת: לפעמים המכונה טובה יותר מהאדם. דרישה למעורבות אנושית מבוססת על הנחה לא נכונה שאדם=טוב, מכונה=מסוכן. במציאות, אנשים עייפים, מוטים, לא עקביים.

זה לא רק ויכוח טכני – זו שאלה עמוקה:    האם אנחנו מוכנים למסור שליטה למכונות?    הרגולטור אומר "לא לגמרי", התעשייה אומרת "תלוי במקרה".

הלקח: ההערה הזו מראה שלפעמים הציבור מערער על הנחות יסוד של הרגולטור. המעירים לא רק אמרו "הרגולציה מכבידה מדי", הם אמרו "הרגולציה מבוססת על הנחה שגויה" – שאדם תמיד עדיף על מכונה.

דוגמה 3: להגיד או לא להגיד? – הויכוח על יידוע הלקוח (מיקום בדוח הסופי: עמוד 71) 

א. העמדה הראשונית של הצוות (בדוח הביניים)

הצוות המליץ על חובת יידוע וגילוי: כשגוף פיננסי משתמש בבינה מלאכותית בהחלטות המשפיעות על לקוח, יש לידע את הלקוח על כך   .

הרציונל: שקיפות היא זכות יסוד. הלקוח זכאי לדעת שההחלטה לגביו (אישור אשראי, חיתום ביטוח, המלצת השקעה) מתקבלת על ידי אלגוריתם ולא על ידי בן אדם.

ב. הערות הציבור – "זה מטריד את הלקוח"

הטענה המרכזית: "במסגרת הערות הציבור לדוח הביניים עלתה טענה לפיה יש לחייב יידוע וגילוי רק במקרים בהם יש למשתמש במערכת אינטראקציה ישירה עם הבינה המלאכותית   ."

שלושת החששות שהועלו:

  1. פגיעה בחוויית המשתמש: יידוע מתמיד על שימוש בבינה מלאכותית מטריד, מייצר חיכוכים, פוגע בחלקות השירות.
  2. מידע שלא ישתמשו בו: "דרישות בהקשר זה עלולות להעמיס במידע שספק אם לקוחות יעשו בו שימוש" – עומס מידע שאיש לא קורא (כמו תנאי שימוש באתרים).
  3. הרתעה משימוש במערכת: לקוחות עשויים לחשוש מבינה מלאכותית ולהימנע משירותים טובים רק בגלל שנאמר להם שיש פה "בינה מלאכותית".

ההצעה: לחייב יידוע רק כשיש אינטראקציה ישירה – כלומר, כשהלקוח מדבר עם צ'אטבוט, אבל לא כשהבנק משתמש באלגוריתם מאחורי הקלעים.

ג. החלטת הצוות הסופית – דחייה מוחלטת

הצוות דחה את הטענות בתוקף בשני נימוקים מרכזיים:

נימוק 1 – גילוי חשוב גם ללא אינטראקציה ישירה: "יידוע וגילוי עשויים להיות חשובים ללקוח או למשקיע גם אם אין לו אינטראקציה ישירה עם המערכת, אך יש לה השפעה מהותית עליו". למשל, כאשר מנהל תיקים משתמש במערכת בינה מלאכותית לקבלת החלטות השקעה, הלקוח לא "מדבר" עם המערכת, אבל היא משפיעה על הכסף שלו! הוא זכאי לדעת.

נימוק 2 – ניתן לעצב גילוי חכם: בדומה לדרישות גילוי קיימות, המהוות כלי רגולטורי שכיח מאוד בתחום הפיננסים, צריך וניתן לעצב את דרישות הגילוי באופן שיתרום ללקוח או למשקיע. כלומר: אין צורך ב"גילוי מטריד", אפשר לעצב אותו באופן חכם, תמציתי ומועיל.

ד. ניתוח הקונפליקט

זהו קונפליקט קלאסי בין אינטרסים עסקיים לבין הגנת צרכן :

התעשייה מתמקדת בחוויית המשתמש ובשיווק: גילוי מרובה = חיכוכים, עזיבות, ירידה בהמרות. הם רואים את זה כנטל שיווקי   .

הרגולטור מתמקד בזכויות הצרכן: גילוי = שקיפות = יכולת לקבל החלטות מושכלות. הם רואים את זה כזכות יסוד דמוקרטית.

הרגולטור דוחה את הטענה הזו. גילוי הוא זכות, גם אם הלקוח לא תמיד משתמש בה. זה עיקרון דמוקרטי – מי שלא רוצה לדעת, לא יקרא. אבל מי שרוצה לדעת, זכאי   .

הלקח: זוהי דוגמה מובהקת לקונפליקט שבו הרגולטור לא מוכן לוותר. בעוד ששתי הדוגמאות הקודמות הראו פשרות (הוספת גמישות, שיפור קריטריונים), כאן הצוות דחה את הטענה כליל. למה? כי שקיפות היא עקרון יסוד ברגולציה פיננסית, ולא ניתן להקריב אותה על מזבח "חוויית משתמש".

מסקנות: מה למדנו מתהליך הערות הציבור?

מסקנה 1 – הערות הציבור משפיעות ברמות שונות של השפעה   :

  1. הגדרת בינה מלאכותית: הצוות שינה את היישום (הוסיף שסתום בטיחות) אך לא את העיקרון.
  2. מעורבות אנושית: הצוות התייחס לביקורת אך לא שינה משמעותית את ההמלצות.
  3. יידוע וגילוי: הצוות דחה את ההערות לחלוטין.

המסר : הערות הציבור יכולות לשנות את הרגולציה, אבל הן לא קובעות אותה. הרגולטור מאזין, אבל לא מוותר על עקרונות יסוד.

מסקנה 2 – הקונפליקט הוא לגיטימי ובריא

זה לא "טובים נגד רעים"    – זה קונפליקט לגיטימי בין שני אינטרסים ציבוריים:

– חדשנות, יעילות, תחרותיות (שגם הן משרתות את הציבור!)

– הגנה, שקיפות, אחריות (שגם הן הכרחיות!)

הערות הציבור חושפות את הקונפליקט הזה ומאפשרות להתמודד איתו בצורה מפורשת.

מסקנה 3 – הדמוקרטיה הרגולטורית עובדת (אבל לא מושלמת)

הצד החיובי:  24 מסמכים התקבלו ונבחנו ברצינות, שינויים נעשו בעקבות הערות, 38 אזכורים בדוח הסופי מוכיחים שההערות שולבו

שאלות שעולות מהתהליך:

– האם הגופים הקטנים והצרכנים באמת יכולים להתמודד עם דוח של 200 עמודים?

– האם הגופים הגדולים (בנקים, חברות ביטוח) לא מיוצגים יתר על המידה?

– מה קורה עם הערות שנדחו – האם יש דרך לערער?

מסקנה 4 –  הבינה המלאכותית היא מקרה מבחן לרגולציה מודרנית

הדוגמאות מראות שרגולציה של טכנולוגיה מתקדמת היא מורכבת מאוד   :

– קשה להגדיר מה זה "בינה מלאכותית" בכלל

– קשה לדעת מתי אדם עדיף על מכונה

– קשה לאזן שקיפות עם חוויית משתמש

תהליך הערות הציבור עוזר להתמודד עם המורכבות הזו – הוא מביא לשולחן נקודות מבט שונות, מערער על הנחות, מציע פתרונות חלופיים.

מסקנה 5 – הדוח הסופי הוא לא סוף הסיפור

זה תחילתו. עכשיו צריך ליישם את ההמלצות בפועל:

– הרגולטורים השונים יפרסמו הנחיות ספציפיות

– הגופים הפיננסיים יצטרכו להתאים את המערכות שלהם

– יהיו בוודאי מקרי מבחן, פרשנויות, ואולי גם ערעורים

וככל הנראה – יהיו עוד סבבי הערות ציבור בעתיד, כשהרגולציה תתעדכן בהתאם להתפתחויות הטכנולוגיות.

סיכום: למה כדאי לעקוב אחרי הערות הציבור?

כשקוראים דוח רגולטורי של 207 עמודים, קל להתמקד רק    במה שנכתב   . אבל אם מסתכלים על התהליך, על הערות הציבור, רואים סיפור מרתק הרבה יותר:

– רואים את הקונפליקטים האמיתיים במשק

– מבינים את הדילמות שהרגולטור מתמודד איתן

– למדים על האינטרסים השונים של השחקנים השונים

– רואים איך הדמוקרטיה הרגולטורית עובדת בפועל

בסופו של דבר,    הרגולציה מעצבת את המציאות שבה אנחנו חיים    – היא קובעת איזה שירותים פיננסיים נקבל, באיזה מחירים, ובאיזו רמת הגנה. תהליך הערות הציבור הוא הזדמנות נדירה לכולנו – אזרחים, חברות, ארגוני צרכנים –    להשפיע על המציאות הזו   .

ובמקרה של בינה מלאכותית בסקטור הפיננסי, זו לא סתם רגולציה של היום –    זו הרגולציה שתעצב את עתיד הכלכלה והכספים שלנו בעשור הקרוב.

שווה לשים לב.

מקורות:

– דוח ביניים: "בינה מלאכותית בסקטור הפיננסי" (אוקטובר 2024)

– דוח סופי: "בינה מלאכותית בסקטור הפיננסי" (דצמבר 2025)

– נספח ד': ריכוז הערות הציבור לדוח הביניים (24 מסמכים)

Facebook
Twitter
LinkedIn
Pinterest

הציות הדיגיטלי שפועל בשבילך 24/7

השאירו פרטים ונחזור אליכם עוד היום

מאמרים נוספים

גלה עוד תוכן

Nullam quis risus eget urna mollis ornare vel eu leo. Aenean lacinia bibendum nulla sed