עורך הדין - גיליון 53
• עיבוד וניתוח נתונים לצורך קבלת החלטות משפטיות עיבוד כמויות עתק של מידע משפטי, כאשר בכוחה של הבינה לחשוף ולזהות דפוסים במערכי נתונים עצומים, ובכך לאפשר קבלת החלטות על בסיס פרו-אקטיביות. • ניתוח נתונים היסטוריים על אנליטיקה וחיזוי תוצאות מנת לנבא ולהעריך סיכויי הסתברות של הצלחה בתיק, רישום סימן מסחר וכיו”ב, והסקת תובנות לשיפור סיכויי ההצלחה בתיק ולבחירת אסטרטגיה מיטבית. בנוסף, ניתן להשתמש בכל בינה מלאכותית לצרכים נוספים שונים וכיו”ב. תרגום, יצירת מצגות, המרה לפורמטים דוגמת המשמעות המעשית אינה מבוטלת: עורכי דין, שבעבר השקיעו חלק ניכר ומשמעותי מזמנם בעבודה מנהלית ובחיפוש מידע, יכולים כעת להתמקד במשימות אסטרטגיות יותר - ייעוץ ללקוחות, ניהול משא ומתן מורכב וחשיבה יצירתית על פתרונות משפטיים. השינוי הזה מחייב התאמה ורכישת כישורים: עורכי דין צריכים לפתח כישורים חדשים ולהבין כיצד לעבוד יחד עם כלים טכנולוגיים בעידן הבינה המלאכותית. האתגרים השונים הכרוכים בהטמעה ומגבלותיה של הבינה AI ובשימוש בכלי המלאכותית למרות היתרונות הבולטים של הבינה המלאכותית, הרי ששימוש בכלים אלה מציב אתגרים לא מבוטלים, כגון שמירה על פרטיות, היבטים של קניין רוחני, אבטחת מידע, והתמודדות עם שאלות אתיות, ואף טומן בחובו סיכונים משמעותיים, אשר עלולים לערער את אמינות ההליך המשפטי. בין האתגרים המהותיים, ניתן למנות מספר דוגמאות: - אחת הסכנות המרכזיות עליהן הצביעו בתי המשפט הזיות AI ( “הזיות בינה מלאכותית” בשורה של מקרים היא תופעת במסגרתה מערכות בינה מלאכותית מייצרות ) Hallucinations מידע שגוי או מפוברק ומציגות אותו כעובדה, קרי, תגובות הנחזות להיות סמכותיות וענייניות, אך שאינן נכונות עובדתית ולעיתים מומצאות לחלוטין. הסכנה היא שעורכי דין עלולים להסתמך על מידע זה ללא בדיקה מספקת, ולהגיש כתבי טענות שכוללים הפניות לפסקי דין שלא קיימים, כפי שאירע לאחרונה בשורת מקרים. בית המשפט התריע מפני הסכנות הגלומות בכך וכינה זאת “גל עכור”, תוך התרעה כי הסתמכות עיוורת על כלים טכנולוגיים עלולה לפגוע באמון הציבור, במערכת המשפט וביושרתה. בתי המשפט הדגישו את חשיבות חובתם של עורכי הדין להמשיך לשאת באחריות מקצועית, גם כאשר הם משתמשים בכלי בינה מלאכותית. עליהם לוודא את אמינות ודיוק המידע המוגש לבית המשפט, ולא להסתמך בצורה עיוורת על תוצרי המערכות. סיכון מהותי בשימוש בכלי בינה מלאכותית הינו אפליה והטיה ) אלגוריתמיות. Biases ) והטיות ( Discrimination אפליה ( מערכות מבוססות בינה מלאכותית עושות שימוש רב בבסיסי נתונים קיימים ובמידע המוזן אליהן ומשמש כדי לאפשר להן ללמוד. הטיות בבסיסי הנתונים או בהנחיות המוזנות למערכות כאלה, לצד טעויות מערכת אחרות (אשר יכולות לנבוע ממקורות שונים: מנתוני האימון, מהנחות היסוד בבסיס
המודל, או מהאופן שבו המודל מיושם בפועל), עשויות לגרום למערכות כאלה להפלות חלק מן המשתמשים. “קופסה שחורה של בינה אתגר מהותי נוסף, הינו מצב המכונה ) - דהיינו, בשל מורכבותן, והעובדה Black Box ( מלאכותית” ) המורכבים פעמים Big Data כי הן מאומנות על נתוני עתק ( רבות מיליארדי ואף טריליוני פרמטרים, לא ניתן להתחקות אחרי האופן בו נוצרו תוצרי המערכת. פירוש הדבר הוא כי קיים קושי להבין את אופן פעולת המערכת, וכיצד הגיעה להחלטה מסוימת. עלול לגרום בין היתר לאמון נמוך חוסר יכולת הבנת התהליך הן בכלי והן במשתמש, וכן לחוסר יכולת להתמודד עם טענות בקשר עם החלטות שהתקבלו. מונח חשוב בהקשר זה הינו “הסברתיות”, המתייחס ליכולת להסביר את אופן פעולת המערכת או את נימוקי ההחלטה שלה, איך ומדוע הגיעה מערכת הבינה המלאכותית לתוצר אליה הגיעה באופן שיהיה מובן לבני אדם. לפיכך, קיימת חשיבות עליונה להבנה באשר לאופן פעילותה של המערכת. לפגיעה בפרטיות ולסודיות עורך דין- סיכון חמור נוסף קשור שימוש בכלי בינה מלאכותית לעיבוד מידע אישי עלול לקוח. להעצים סיכונים לפגיעה בפרטיות וחשיפת מידע אישי וכן להקשות על היכולת לשלול (או למתן) את הסיכונים וליישם את עקרונות וכללי דיני הגנת הפרטיות במידע. אשר על כן מומלץ, בין היתר, להימנע מהעברת מידע מזהה של לקוחות וליישום פרוטוקולי אבטחה מותאמים. , AI למערכות גילוי דעת 2024 יש לציין כי לשכת עורכי הדין פרסמה בשנת מקדים בעניין שימוש בבינה מלאכותית בעבודת עורכי הדין ) הקובע כללים מנחים ביחס לשימוש כאמור. 60/24/ (החלטה את
27 | עורך הדין
Made with FlippingBook - Online Brochure Maker