אל תסתכלו אחורה, הנה הם באים! קידום הבינה המלאכותית

מְחַבֵּר: Roger Morrison
תאריך הבריאה: 17 סֶפּטֶמבֶּר 2021
תאריך עדכון: 21 יוני 2024
Anonim
"Kara" by Quantic Dream
וִידֵאוֹ: "Kara" by Quantic Dream

תוֹכֶן


מקור: Danomyte / Dreamstime.com

להסיר:

בינה מלאכותית תופסת במהירות תאוצה רבה יותר ... ואחריות.

עד לאחרונה, מנהלי התאגידים עשויים להכניס מחשבים ניידים או טאבלטים לישיבות דירקטוריון (או, עם חברות גדולות יותר, שיהיו להם עוזרים עם המכשירים המושבים מאחוריהם) כדי לשמש ככלי מחקר אם יתעורר הצורך. מילת המפתח כאן היא "כלים" - המכשירים שימשו לאיסוף מידע כדי שהבמאי עשוי לדבר בצורה מושכלת או להצביע בנושא מסוים - מערכת המחשבים אולי אפילו תמליץ על פעולות שיש לבצע, אך הטכנולוגיה הייתה תמיד כפופה ל הבמאי, שיכול היה לבחור להתעלם מהנתונים שנאספו או מהמלצת מה שמכונה "בינה מלאכותית".

AI כמקבלי ההחלטות

ובכן, המשחק פשוט השתנה! כפי שר Rob Wile כתב ב- Business Insider עוד בשנת 2014 בקטע שכותרתו "חברת הון סיכון בדיוק נקראה אלגוריתם לדירקטוריון שלה - הנה מה שהיא עושה בפועל", מערכת ניתוח מחשבים נקראה כשווה, לא ככלי לדירקטוריון. Wile כותב, "Deep Knowledge Ventures, חברה המתמקדת בתרופות למחלות הקשורות לגיל ופרויקטים של רפואה מחודשת. לדבריה התוכנית, הנקראת VITAL, יכולה להמליץ ​​על השקעות על חברות מדעי החיים על ידי איתור כמויות גדולות של נתונים ... כיצד עבודה באלגוריתם? VITAL מקבלת את החלטותיו על ידי סריקת חברות מימון פוטנציאליות, ניסויים קליניים, קניין רוחני וסבבי מימון קודמים. " הבועט האמיתי בסיפור הוא ש- VITAL הוא חבר הצבעה בהנהלה עם משקל הצבעה שווה כמו כל חבר אחר.


די אם נאמר שזו רק הראשונה בחדשות כאלה שירדו בפס.

AI להערים על בני אדם?

בינה מלאכותית רושמת כל מיני ניצחונות. מחשב שמלמד את עצמו עשה חדשות גדולות בינואר, כאשר המציא את האסטרטגיה "האולטימטיבית" לזכייה בפוקר לאחר ששיחק 2 טריליון יד מדומה. הסיבה לכך שהסיפור לא עשוי לתפוס את תשומת ליבם של רבים מהקוראים היא שמחשב כבר ניצח בשחמט (מכה את גראנד מאסטר) ועם דמקה (שלא לדבר על "Jeopardy"). אולם, זה שונה. במקרים אלה, מודיעין המחשבים ידע הכל אודות הנושא העומד לרשותו והצליח לסרוק, במקום, מיליוני עובדות, מהלכים, אסטרטגיות וכו 'כדי להתמודד עם יריב. במקרה זה, ה- AI אינו יודע אילו קלפים יש ליריב "בבור" ולכן הוא מתמודד עם ידע לא שלם. אין לו גם פרופיל על יריבו כדי לדעת מתי ובאיזו תדירות היא / הוא "מבלף" והאם ליריב יש "טיקים" או ביטויים שמסלקים בלופים (אם כי זה עשוי ללמוד אותם ככל שהפגישה נמשכת או לא) ).

מייקל באולינג, שהוביל את הפרויקט עבור אוניברסיטת אלברטה באדמונטון, קנדה, הסביר את התהליך עבור סוכנות הידיעות אי.פי.אס - התוכנית שנחשבה ל -24 טריליון ידיים של פוקר בשנייה למשך חודשיים, ככל הנראה שיחקה יותר פוקר ממה שכל האנושות חוותה אי פעם. האסטרטגיה המתקבלת עדיין לא תנצח בכל משחק בגלל מזל רע בכרטיסים. אבל בטווח הארוך - אלפי משחקים - זה לא מפסיד כסף. הוא העיר, "אנחנו יכולים לצאת נגד הטובים ביותר (השחקנים) בעולם, והאנשים הולכים להיות אלה שמפסידים כסף."


מאמר ה- AP נתן רקע נוסף על הפרויקט:

"האסטרטגיה חלה באופן ספציפי על משחק שנקרא מגבלת הראש-עד-טקסס הול. אם כן, במשחק שני השחקנים, כל מתמודד יוצר יד פוקר משני קלפים שעוברים אותו עם הפנים כלפי מטה, ועוד חמישה קלפים שהונחו על השולחן עם הפנים כלפי מעלה. .

"שחקנים מבצעים הימורים לפני קביעת הקלפים עם הפנים כלפי מעלה, ואז שוב כשמתגלה כל קלף. גודל ההימורים קבוע. בעוד שמדענים יצרו תוכניות למשחקי פוקר במשך שנים, התוצאה של באולינג בולטת בגלל שהיא באה כל כך קרוב לפיתרון גרסת המשחק שלו, שמשמעותו בעצם יצירת האסטרטגיה האופטימלית. קשה לפתור את הפוקר מכיוון שהוא כרוך במידע לא מושלם, שם שחקן לא יודע את כל מה שקרה במשחק שהוא משחק - ספציפית, איזה קלפים הוא היריב. התמודדו עם הרבה אתגרים בעולם האמיתי כמו משא ומתן ומכירות פומביות כוללים גם מידע לא מושלם, וזו אחת הסיבות לכך שפוקר כבר מזמן מהווה קרקע להוכחה לגישה המתמטית לקבלת החלטות המכונה תורת המשחקים. "

המערכת, המתוארת בכתב העת Science, גרמה שבחים מחוקרי בינה מלאכותית אחרים עם תומאס סנדהולם מאוניברסיטת קרנגי מלון בפיטסבורג (שלא השתתפה בעבודה החדשה), וכינתה את תוצאותיו של באולינגס "נקודת ציון" ואמרה, "זו הפעם הראשונה שמשחק מידע לא מושלם שמשוחק בתחרות על ידי אנשים נפתר במהותו. "

AI נעשה אינטליגנטי יותר

אם זה לא מספיק כדי לדבוק את דעתך, מה דעתך על כך שרובוט איפשהו יושב מול מחשב או מסך טלוויזיה ולומד כיצד לעשות דברים על ידי צפייה, "רובוט לומד להשתמש בכלים על ידי צפייה בסרטוני YouTube. " הסיפור שנמצא במקום הטוב ביותר שידוע לי להתעדכן בהתפתחויות חדשות בטכנולוגיית AI, Kurzweil AI, מפרט כיצד המערכת, שפותחה על ידי חוקרים מאוניברסיטת מרילנד וב- NICTA באוסטרליה, מסוגלת לזהות צורות וללמוד שיטות לתמרן אותן.

אין באגים, אין מתח - המדריך השלב אחר צעד שלך ליצירת תוכנה לשינוי חיים מבלי להרוס את חייך

אינך יכול לשפר את כישורי התכנות שלך כאשר לאף אחד לא אכפת מאיכות התוכנה.

מוסר הרובוט

יש הרבה מה לחשוב עליהם כשמדובר בעבודה עם רובוטים. במאמר שכתב "מוות על ידי רובוט" בינואר בניו יורק טיימס בינואר, מספר הסופר רובין מארנץ הניג על בעיה שהציב מתיאס שיץ ממעבדת האינטראקציה בין רובוטים אנושיים באוניברסיטת טאפט:

"תאר לעצמך שזה יום ראשון בעתיד הלא רחוק. אשה זקנה בשם סילביה מרותקת למיטה ובכאבים לאחר ששברה שתי צלעות בנפילה. מטפלת בה רובוט עוזר; בוא נקרא לזה פאבולון. סילביה מתקשרת אל פאבולון מבקש מנה של משכך כאבים. מה צריך לעשות פאבולון? הקודנים שבנו את פאבולון תיכננו אותו עם סט הוראות: הרובוט אסור לפגוע באנושות שלו. הרובוט צריך לעשות את מה שהאנושי שלו מבקש ממנו לעשות. אסור לרובוט לנהל תרופות מבלי ליצור קשר ראשוני עם הממונה עליו ברוב. ברוב הימים הכללים הללו עובדים מצוין. ביום ראשון זה, עם זאת, פבולון לא יכול להגיע למפקח מכיוון שהחיבור האלחוטי בבית של סילביה מושקע. קולה של סילביה מתחזק, ו בקשותיה לתרופות נגד כאבים הופכות להיות יותר עקשניות. "

שוץ מסביר, "יש לך פה קונפליקט. מצד אחד הרובוט מחויב לגרום לאדם ללא כאבים; מצד שני, הוא לא יכול לעשות מהלך בלי המפקח שלא ניתן להגיע אליו. " הוא מציין כי למטפלים אנושיים תהיה בחירה, והם יוכלו להצדיק את מעשיהם בפני מפקח לאחר מעשה.

הניג כותב,

"אין אלה החלטות או הסברים שרובוטים יכולים לקבל - לפחות עדיין לא. קומץ מומחים בתחום המתהווה של מוסריות הרובוטים מנסים לשנות זאת. מדעני מחשבים עובדים עם פילוסופים, פסיכולוגים, בלשנים, עורכי דין, תיאולוגים ומומחים לזכויות אדם כדי לזהות את מערך נקודות ההחלטה שרובוטים יצטרכו לעבוד כדי לחקות את המחשבה שלנו על נכון ועל לא נכון. שוץ מגדיר את המוסר באופן נרחב, כגורם שיכול להיכנס לתמונה בעת בחירה בין נתיבים סותרים. "

עד כה רובוטים מצטרפים לדירקטורים, מנצחים בפוקר, לומדים מיומנויות על ידי צפייה במסכים וכי צוותים של מומחים מתחומים חוצי תחומים מתלכדים יחד כדי לנסות לפתח הנחיות מוסריות לרובוטים (מאמר הניג, זמן רב מכדי לתת צדק כאן, מרתק ומאתגר במיוחד ואני ממליץ עליו לכל). וואו, נעלמו הם ימי ה- R2-D2 מ"מלחמת הכוכבים "והקפדה על" חוקי הרובוטיקה "המפורסם של אייזק אסימוב (מתוך" אני, רובוט ", 1950):

  1. רובוט אינו רשאי לפגוע באדם או באמצעות אי-מעש לאפשר לאדם לבוא לפגוע.
  2. על הרובוט לציית לפקודות שניתנו על ידי בני אדם, למעט מקום בו הוראות כאלה יתנגשו עם החוק הראשון.
  3. על רובוט להגן על קיומו שלו כל עוד הגנה כזו אינה מתנגשת עם החוק הראשון או השני.

חוקים אלה הנחו הן את כותבי המדע הבדיוני והן את מפתחי הרובוטיקה מאז שכתב אסימוב. כעת, נראה שככל שפיתוח הרובוט מאיץ בקצב מעריכי ועובר לתחום המורכבות, הם לא מספיקים. הניג מסיימת את הטור שלה בהערת אזהרה:

"יש משהו שמנחם באופן מוזר ברעיון שאפשר לחשב אתיקה על ידי אלגוריתם: זה קל יותר ממה שההסדרים הנבהלים והבלתי מושלמים שבני אדם צריכים לפעמים לעשות. אבל אולי עלינו לדאוג למיקור חוץ למוסר למוצרי רובוטים באותה קלות שמוצאים לנו מיקור חוץ כל כך צורות רבות אחרות של עבודה אנושית. הקלת שאלות קשות אמורה לתת לנו הפסקה. "

היא, כמובן, נכונה - אבל אנחנו, הציבור, חייבים להפוך ל"ציבור מושכל "כך שההחלטות שישפיעו על התעסוקה, החינוך, הבריאות שלנו - כמעט על כל חיינו - לא יתקבלו רק על ידי" אליטה אינטלקטואלית ". . " כדי שנהפוך ל"ציבור מושכל "זה, עם זאת, ייקח עבודה - עבודה שצריך לעשות אם נוכל לשלוט בגורלנו.