בין בורות לאדישות: מה פסק הדין של בג"ץ מלמד אותנו על עתיד המשפט בעידן הבינה המלאכותית.

בפסק דין תקדימי על "הזיות AI", בג״ץ מסמן את המעבר מהשאלה "האם" להשתמש בבינה מלאכותית לשאלה "כיצד" לעשות זאת באחריות - לקחים ותובנות למשפטנים בעידן החדש.

"מה ההבדל בין בורות לאדישות?" שאל פעם פרופסור בקורס לאתיקה משפטית. "אני לא יודע וזה לא מעניין אותי," השיב לעצמו.

הבדיחה הישנה הזו עלתה בזיכרוני השבוע, כשקראתי את פסק הדין המרתק של השופטת גילה כנפי-שטייניץ בבג"ץ. פסק דין שמתייחס למקרה שמבחינתנו במכון היה כמעט בלתי נמנע – עורכת דין שהגישה עתירה המבוססת על פסקי דין שאינם קיימים, שנוצרו על ידי כלי בינה מלאכותית.

צפינו את זה מגיע

אני חייב להודות שכשהקמנו את המכון לפני מספר שנים, ידענו שרגע כזה יגיע. המפגש בין הטכנולוגיה המתקדמת של ימינו לבין מקצוע שמושתת על דיוק, אמינות ואחריות היה חייב ליצור התנגשות בשלב כלשהו. מה שלא יכולנו לדעת הוא כמה הדיון שיתפתח בעקבותיו יהיה מאוזן ומפוכח.

השופטת כנפי-שטייניץ, בפסק דין שראוי לשבח, הצליחה לנווט בין הקצוות – מצד אחד ביקורת חריפה ומוצדקת על השימוש הרשלני בטכנולוגיה, ומצד שני הכרה בפוטנציאל העצום הטמון בה. המשפט המפתח בפסק הדין, שאני מניח שיצוטט עוד שנים רבות, הוא: "אין בחומרת המעשה שלפנינו, ובחששות שהוא מעורר, כדי להעיב על שימושים ראויים שניתן לעשות בכלי בינה מלאכותית. אל לנו לשפוך את התינוק עם המים."

אבל האמירה שבאמת מבטאת את נקודת המפנה התרבותית-משפטית שאנו עדים לה היא: "לא ירחק היום כי חובותיו של עורך הדין ישמיעו צורך להיעזר בכלים אלו."

המהפכה הכפולה שפספסנו

בשיחות שלנו עם עורכי דין ומשפטנים בשנים האחרונות, אנחנו מרבים לדבר על תופעה מעניינת: בעוד שרוב המקצועות והתעשיות עברו מהפכת אוטומציה משמעותית בעשרים השנים האחרונות, עולם המשפט נותר במידה רבה מאחור.

הסיבה לכך ברורה: האופי הייחודי של העבודה המשפטית. בעוד שתהליכים רבים בתחומים אחרים ניתנים לאוטומציה פשוטה (אם X אז Y), המשפט דורש הבנת הקשר, פרשנות ושיקול דעת מורכב – מה שאנחנו מכנים "אינטראקציה תבונית".

הפרדוקס המעניין הוא שכעת, עם כניסת הבינה המלאכותית לתמונה, אנחנו מקבלים שתי מהפכות במחיר אחת: הן את האוטומציה הבסיסית שפספסנו בדרך, והן את האפשרויות המתקדמות שמציעה הבינה המלאכותית עצמה.

בורות, אדישות, או סקרנות אחראית?

במכון, אנחנו מבחינים בשלוש גישות עיקריות של אנשי מקצוע כלפי הטכנולוגיה החדשה:

  1. בורות – חוסר הבנה מוחלט של הכלים, יכולותיהם ומגבלותיהם.
  2. אדישות – שימוש חסר אחריות בכלים, ללא בדיקה וביקורת נאותות.
  3. סקרנות אחראית – הגישה שאנו מקדמים: שילוב בין פתיחות לחדשנות לבין מחויבות לאתיקה מקצועית.

המקרה שנדון בבג"ץ הוא דוגמה מושלמת למה שקורה כששתי הגישות הראשונות נפגשות: בורות לגבי מגבלות הכלי (נטייתו ל"הזיות" – יצירת מידע שנשמע אמין אך אינו קיים) ואדישות לגבי הצורך לבדוק את התוצרים.

בפסק דין תקדימי על "הזיות AI", בג״ץ מסמן את המעבר מהשאלה "האם" להשתמש בבינה מלאכותית לשאלה "כיצד" לעשות זאת באחריות - לקחים ותובנות למשפטנים בעידן החדש.

מודל ה-AI-LEGAL-SAFE שלנו

בשנה האחרונה פיתחנו במכון מתודולוגיה מקיפה לשילוב אחראי של כלי AI בעבודה המשפטית, המכונה AI-LEGAL-SAFE. המודל הזה משמש כיום מאות עורכי דין ומשפטנים שעברו הכשרה אצלנו, והוא מבוסס על עקרונות שפסק הדין של בג"ץ רק מחזק:

  • Awareness (מודעות) – פיתוח הבנה עמוקה של יכולות וחולשות הכלים
  • Integration (שילוב) – הטמעה הדרגתית ומבוקרת בתהליכי העבודה
  • Legal Ethics (אתיקה משפטית) – התאמת השימוש לכללי האתיקה המקצועית
  • Evaluation (הערכה) – בדיקה שיטתית של התוצרים
  • Governance (ממשל) – יצירת מסגרת פנימית של נהלים ובקרות
  • Adaptation (התאמה) – התאמת השימוש לתחומי ההתמחות הספציפיים
  • Learning (למידה) – עדכון שוטף של הידע והמיומנויות
  • Sharing (שיתוף) – תרומה לידע הקולקטיבי של הקהילה המקצועית
  • Accountability (אחריותיות) – נטילת אחריות מלאה על התוצרים
  • Future-Ready (מוכנות לעתיד) – היערכות לשינויים
  • Ethical Innovation (חדשנות אתית) – שימוש בטכנולוגיה לקידום נגישות וצדק

לקחים מעשיים מפסק הדין

מעבר לניתוח האקדמי, מה פסק הדין של השופטת כנפי-שטייניץ אומר לנו כמשפטנים פרקטיים? הנה כמה לקחים מעשיים:

  1. השימוש בכלי AI אינו פטור מאחריות מקצועית – אדרבה, הוא מגביר אותה. האחריות על תוצרי הכלים היא תמיד על עורך הדין.
  2. "כלל האימות הכפול" – כל מידע שמתקבל מ-AI חייב אימות ממקור נוסף, במיוחד כשמדובר בטענות משפטיות או עובדתיות.
  3. חובת ההבנה המעמיקה – אין די בידיעה טכנית כיצד להפעיל את הכלי; נדרשת הבנה של מגבלותיו והדרכים בהן הוא עלול להטעות.
  4. שקיפות כערך מרכזי – היכולת להסביר כיצד הגעת למסקנות, גם כשנעזרת בכלים טכנולוגיים, היא חיונית.
  5. הבנת התופעה של "הזיות AI" – הכרה בכך שמערכות בינה מלאכותית יכולות ליצור מידע שנראה משכנע אך אינו קיים במציאות.

מבט קדימה: ממתקפות על הטכנולוגיה להתמודדות מושכלת

אני צופה שבשנים הקרובות נראה שינוי משמעותי בגישה של הקהילה המשפטית לכלי בינה מלאכותית. מ"האם" להשתמש בהם, ל"איך" להשתמש בהם באופן אחראי ומקצועי.

אין ספק שהמקרה שנדון בבג"ץ לא יהיה האחרון, אך אני מאמין שככל שיתפתח השיח ויתרבו ההכשרות והכלים המעשיים, כך יפחתו מקרי הקיצון. זו בדיוק המשימה שהצבנו לעצמנו במכון – להכשיר את הדור הבא של משפטנים לעולם שבו בינה מלאכותית אינה איום, אלא הזדמנות להעלאת רמת המקצועיות.

מה הלאה?

בעקבות פסק הדין, אנחנו מתכננים סדרת הכשרות חדשה שתתמקד בנושא "זיהוי וניהול סיכונים בשימוש בכלי AI משפטיים". בהכשרות אלו נתמקד באספקטים הפרקטיים של בדיקת תוצרים, זיהוי "הזיות AI", ופיתוח פרוטוקולי עבודה בטוחים.

כמו כן, אנחנו מרחיבים את הקהילה המקצועית שלנו – פלטפורמה לשיתוף ניסיון, תובנות ופרקטיקות מיטביות בין כ-6,000 חברי קהילה – משפטנים שמשלבים טכנולוגיה בעבודתם. אם עוד לא הצטרפתם, אתם מוזמנים לעשות זאת.

סיכום

מה שיכולנו לראות כסיפור שלילי – עורכת דין שהסתבכה בשל שימוש לא אחראי בטכנולוגיה – הפך בזכות פסק הדין המאוזן של השופטת כנפי-שטייניץ לנקודת פתיחה לדיון עמוק וחשוב בקהילה המשפטית.

במובן מסוים, הבדיחה שפתחתי בה את הפוסט מתמצתת את האתגר העומד בפנינו: אל לנו להיות בורים לגבי כלי הבינה המלאכותית, ובוודאי שאל לנו להיות אדישים לגביהם. הדרך הנכונה היא הסקרנות האחראית – להכיר, ללמוד, להתנסות, אך גם לבקר, לבדוק ולקחת אחריות מלאה.

כי בסופו של יום, הטכנולוגיה היא רק כלי, והאחריות המקצועית היא עלינו,

 

הטמעת AI במשרד?

הזמינו פגישת ייעוץ ללא עלות להטמעת פתרונות מותאמים להגברת היעילות והרווחיות