11 ציטוטים על AI שיגרמו לך לחשוב

מְחַבֵּר: Laura McKinney
תאריך הבריאה: 3 אַפּרִיל 2021
תאריך עדכון: 26 יוני 2024
Anonim
CS50 2014 - Week 9, continued
וִידֵאוֹ: CS50 2014 - Week 9, continued

תוֹכֶן


מקור: לין שאו הואה / Dreamstime.com

להסיר:

התקדמות ה- AI היא בלתי נמנעת, ומה שמתרגם לאנושות אינו ברור לחלוטין. יש המאמינים שאנו יכולים להסתכל קדימה לעתיד גדול, בעוד שאחרים חושבים שזה אומר שאנחנו בדרך להחלפה על ידי אדוני הרובוטים שלנו. הפרספקטיבה השלישית היא זו המודעת לסיכונים אך מחשיבה אותם כניתנים לניהול.

אנו שומעים הרבה על AI והפוטנציאל הטורנסיבי שלו. עם זאת, מה המשמעות של עתיד האנושות אינו ברור לחלוטין. יש עתידנים שמאמינים שהחיים ישתפרו, בעוד שאחרים סבורים כי הם נתונים תחת איום רציני. יש גם קשת עמדות באמצע. להלן מגוון תיקונים של 11 מומחים.

1. "ללא ספק, הסכנה הגדולה ביותר של בינה מלאכותית היא שאנשים מסיקים מוקדם מדי שהם מבינים את זה." - אליעזר יודקובסקי

זה המשפט הראשון בדו"ח של יודקובסי משנת 2002, שכותרתו "בינה מלאכותית כגורם חיובי ושלילי בסיכון עולמי" עבור מכון המחקר למודיעין מכונות (MIRI). בעוד שהמונח AI לא נקשר כמעט באותה מידה כפי שהוא עכשיו, עדיין נותרה בעיה של חוסר הבנה ביכולותיה ומגבלותיה של הטכנולוגיה. למעשה, בשנים האחרונות, יש יותר דחיפה להפוך את ה- AI לא רק מובן, אלא גם ניתן להסביר.


2. "מה שחיוני הוא להפוך כל דבר שקשור לאינטרסים של AI, הוגן, מאובטח ובעל שושלת, כלומר כל אחד יכול לראות בפשטות לראות כיצד כל יישום של AI התפתח ומדוע." - ג'יני רומטי

מנכ"לית יבמ הצהירה את ההצהרה הזו במהלך כתובתה המרכזית ב- CES ב- 9 בינואר 2019. הרקע לטעון את הצורך ב- AI מוסבר הוא ששמירה עליו כקופסה שחורה אטומה לא מאפשרת לבדוק ולתקן הטיות או בעיות אחרות בתכנות. יבמ הכניסה את עצמה למחנה של עבודה למען פתרון בעיה זו, לא רק להציע שירותי מחשוב לחברות, אלא התייעצויות בנושא צמצום הטיה למי שבונה מערכות למידת מכונות. (למידע נוסף על AI שניתן להסביר, יש AI להסביר לעשות זאת.)

אין באגים, אין מתח - המדריך השלב אחר צעד שלך ליצירת תוכנה לשינוי חיים מבלי להרוס את חייך

אינך יכול לשפר את כישורי התכנות שלך כאשר לאף אחד לא אכפת מאיכות התוכנה.


3. "האולטימטיבי מנוע חיפוש, שתבין, אתה יודע, בדיוק מה רצית כשאתה מקליד שאילתה, וזה היה נותן לך את הדבר הנכון המדויק בחזרה, מדעי המחשב אנו מכנים זאת בינה מלאכותית. זה אומר שזה יהיה חכם, ואנחנו כבר הרבה דרכים להחזיק מחשבים חכמים. " - לארי פייג '

המייסד והמנכ"ל של גוגל באותה תקופה אמרו זאת בנובמבר 2002 במהלך מגזר PBS NewsHour שכותרתו "גוגל: מנוע החיפוש שיכול היה". המארח נפתח בהרהור על הפופולריות הגואה של גוגל בשנה בה הדיאלקט האמריקני. החברה דירגה את זה כפועל השימושי ביותר שנוסף לשימוש, אם כי ייקח עוד כמה שנים עד שהוא יכיר בזכות מרריאם-וובסטר. אך כבר בשלב מוקדם, החברה סימנה את העניין שלה להשתמש ב- AI.

4. "הימנע בכל מחיר מכל אזכור או השלכה של AI. AI נשק הוא ככל הנראה אחד הנושאים הרגישים ביותר של AI - אם לא הכי. זה בשר אדום לתקשורת כדי למצוא את כל הדרכים לפגוע בגוגל. " - פיי פיי, חלוץ AI ב- Google, לעמיתים על מעורבות החברה בפרויקט Maven

גוגל גילה שלהיות שחקן מרכזי ב- AI יכול להיות חסרון. ביולי 2017 הציג משרד ההגנה את יעדיו עבור פרויקט Maven. אלוף חיל הנחתים דרו קוקור, ראש צוות לוחמה אלגוריתמית חוצה-פונקציות בצוות המודיעין, המעקב והסיור, הנהלת לוחמת לוחמים במשרד מזכ"ל ההגנה למודיעין דיבר על מטרתם המוצהרת לשנה: "אנשים ו מחשבים יעבדו בסימביוטיקה כדי להגדיל את יכולתם של מערכות נשק לאתר חפצים. "

גוגל הייתה שותפה במיזם הזה, אך - כפי שעולה מהציטוט שלמעלה - עובדי גוגל לא אהבו את זה. בסופו של דבר החברה נכנעה ללחץ וביוני 2018 הודיעה שהיא לא תחדש את חוזהה עם משרד ההגנה. כפי שדיווח היירוט:

גוגל עמדה בלחץ הולך וגובר מאז שנחשף החוזה על ידי Gizmodo ו- The Intercept במרץ. כמעט תריסר עובדים התפטרו ממחאה, וכמה אלפים חתמו על מכתב פתוח המצהיר כי "גוגל לא צריכה להיות בעסקי מלחמה". יותר מ- 700 אנשי אקדמיה חתמו על מכתב בדרישה ש"גוגל תפסיק את חוזהו עם ה- DoD, וכי גוגל וחברת האם שלה אלפבית מתחייבות לא לפתח טכנולוגיות צבאיות ולא להשתמש בנתונים האישיים שהם אוספים למטרות צבאיות. "

5. "בינה מלאכותית תגיע לרמות אנושיות בסביבות שנת 2029. עקוב אחר המשך ההמשך לנגיד 2045, אנו מכפילים את המודיעין, את הבינה המכונה הביולוגית האנושית של התרבות שלנו פי פי מיליארד." - ריי קורץווייל

העתידן והממציא אמר זאת בראיון משנת 2012 בו דיבר על השגת אלמוות באמצעות כוח מחשוב. הוא אישר את הנתון "פי פי מיליארד" והסביר זאת באופן הבא: "זהו שינוי יחיד כך שאנו שואלים מטאפורה זו מהפיזיקה וקוראים לה ייחודיות, שינוי מפריע עמוק בהיסטוריה האנושית. החשיבה שלנו תהפוך למכלאה של חשיבה ביולוגית ולא ביולוגית. "ברור שהוא אחד העתידנים האופטימיים, תוך שהוא מדמיין שינוי משבש שיועיל מאוד. הוא הסביר עוד יותר מדוע הוא מאמין שהאלמוות נמצא בהישג יד: "אנו נוסיף יותר משנה בכל שנה לתוחלת החיים הנותרת שלך, שם חולות הזמן הולכים ונעלמים במקום להיגמר, שם תוחלת החיים הנותרת שלך למעשה מתמתחת כ הזמן חולף."

6. "היתרון הגדול ביותר בהגעת בינה מלאכותית הוא ש- AIs יסייעו בהגדרת האנושות. אנחנו צריכים מכשירי AI שיגידו לנו מי אנחנו. " - קווין קלי

מייסד שותף של Wired כתב את הקביעה הגורפת הזו בספרו משנת 2016, "הבלתי נמנע: הבנת 12 הכוחות הטכנולוגיים שיעצבו את עתידנו." כשהוא רואה את עליית האוטומציה והתפקידים שהרובוטים משתלטים עליהם, הוא צופה כי שם יהיה מעגל הכחשה חוזר ונשנה, אך ההתקדמות היא בלתי נמנעת, ונצטרך להסתגל בהתאם. כפי שהסביר בראיון ל- IBM: "באמצעות AI, אנו הולכים להמציא סוגים רבים של חשיבה שאינם קיימים ביולוגית ואינם דומים לחשיבה אנושית," ואת בטנת הכסף לענן המחשבים שהוא מדגיש. הוא זה: "לכן אינטליגנציה זו אינה מחליפה חשיבה אנושית, אלא מגדילה אותה."

7. "הסיכון האמיתי עם AI איננו זדון אלא יכולת. א AI של אינטל-אינטלגנט יהיה טוב מאוד בהשגת היעדים שלה, ואם יעדים אלה אינם מיושרים לשלנו, אנו בצרות. אתה כנראה לא שונא נמלים מרושע שצועד על נמלים מתוך זדון, אבל אם אתה אחראי על פרויקט אנרגיה ירוקה הידרואלקטרית ויש נמלה באזור שיוצף, חבל על הנמלים. בוא לא נניח את האנושות בעמדת הנמלים האלה. " - סטיבן הוקינג

ציטוט זה מתוארך לתחילת 2015. זו הייתה התשובה שסטיבן הוקינג הציע במהלך מפגש שאלות ותשובות של Reddit AMA (שאל אותי כל דבר) לשאלה של מורה שרצה לדעת כיצד לטפל בדאגות מסוימות של AI שעולות בכיתותיו, כלומר הבא:

איך היית מייצג את אמונותיך שלך בפני הכיתה שלי? האם עמדותינו אינן ניתנות להשוואה? האם אתה חושב שההרגל שלי להנחות את "AI הרע" בסגנון שליחות קטלנית הוא תמים? ולבסוף, איזה מוסר אתה חושב שאני צריך לחזק לתלמידים שלי שמתעניינים ב- AI?

הוקינג מגלה דאגה מסוימת מההשפעות ההרסניות של AI על האנושות, אם כי נראה שהוא מאמין שניתן לנהל את הסיכון אם אנו מתכננים אותו, השקפה המשותפת לחלקם האחרים. (למידע נוסף בנושא זה, ראה מדוע AIs של סופר-אינטלגנט לא ישמידו את בני האדם בקרוב.)

8. "אתה רוצה לדעת כמה סופר אינטליגנטי סייבורגים אולי יתייחס לבני אדם רגילים בשר ודם? עדיף להתחיל לחקור כיצד בני אדם מתייחסים לבני דודים בעלי החיים הפחות חכמים שלהם. זו כמובן לא אנלוגיה מושלמת, אבל זה הארכיטיפ הטוב ביותר שאנחנו יכולים למעשה לראות ולא רק לדמיין. " - יובל נח הררי

פרופסור הררי השמיע את ההיגוי הזה בספרו משנת 2017, "הומו דעוס: היסטוריה קצרה של מחר." השקפתו היא קטבים מלבד זו של העתידנים החיוביים בתמונת העלייה של מה שהוא מכנה דאטה -ismism בו בני אדם נותנים את הקרקע העליונה למתקדמת בינה מלאכותית. אנו חייבים להציב את עמדת הנמלים בהסברו של הוקינג. זהו עתיד הנשלט על ידי "מערכת עיבוד נתונים קוסמית" הכול-יודע-כל-יכול, וההתנגדות חסרת תוחלת.

9. עלינו לטפל, באופן אינדיבידואלי וקולקטיבי, בסוגיות מוסריות ואתיות המועלות על ידי מחקר חדשני בבינה מלאכותית ביוטכנולוגיה, שיאפשרו הארכת חיים משמעותית, תינוקות מעצבים והוצאת זיכרון. " - קלאוס שוואב

שוואב פרסם את מחשבותיו על המהפכה התעשייתית הרביעית בינואר 2016. כמו העתידנים החיוביים, הוא דמיין שהעתיד יתמזג "העולמות הפיזיים, הדיגיטליים והביולוגיים בדרכים שתהפכו את המין האנושי ביסודו." אך הוא לא לקח זאת כמובן מאליו. ש"טרנספורמציה כזו חיובית "כזו, המאיץ אנשים לתכנן קדימה במודעות ל"סיכונים וההזדמנויות המתעוררים בדרך".

10. "הרבה נכתב על הפוטנציאל של AI לשקף את הטוב והגרוע שבאנושות. לדוגמא, ראינו את ה- AI מספק שיחה ונוחות לבודדים; ראינו גם כי AI עוסק באפליה גזעית. עם זאת, הפגיעה הגדולה ביותר ש- AI עשויה להסב לאנשים בטווח הקצר היא תזוזת עבודה, מכיוון שכמות העבודה שאנו יכולים לבצע אוטומציה עם AI גדולה בהרבה מבעבר. כמנהיגים, מוטל על כולנו לוודא שאנחנו בונים עולם שבו לכל אדם יש הזדמנות לשגשג. " - אנדרו נג

הציטוט הזה בא מתוך "מה בינה מלאכותית יכולה ולא יכולה לעשות כרגע", כתבה המאמר אנדרו נג, המוביל המייסד של צוות המוח של גוגל, לשעבר מנהל מעבדת הבינה המלאכותית סטנפורד, עבור הרווארד סקירה עסקית בשנת 2016 כאשר הוא היה המוביל הכללי של צוות ה- AI של באידו. (בשנת 2017 הוא הפך להיות המייסד והמנהל של Landing AI.) זה מסביר את היכולות והגבלות של AI כפי שהיה אז, והוא עדיין רלוונטי כיום. בעוד ש- Ng אינו מציב עתיד דיסטופי בשליטת נתונים, הוא מסכים שלמפתחים אותו מוטלת האחריות להחיל אותו באחריות מתוך הבנה מלאה של תוצאותיה המיועדות והלא מכוונות.

11. "אין שום סיבה ושום דרך שמוח אנושי יכול לעמוד בקצב של מכונה אינטליגנטית מלאכותית עד שנת 2035." - גריי סקוט

הציטוט הזה לא הוגש בצורה שגויה, אם כי הוא סוטה מהדרך בה תראה אותו בכל מקום אחר באינטרנט מכיוון שהוא מופיע תמיד כ"אין סיבה ושום דרך שמוח אנושי יכול לעמוד בקצב של מכונה של בינה מלאכותית עד שנת 2035. "הנה סיפור. בהתבסס על כמה רחוק זה מופיע במקורות דיגיטליים, זה נאמר ככל הנראה בשנת 2015. עם זאת, לא יכולתי להצמיד אותו למצב מסוים אף לאחר שעות של חיפוש בסרטונים ובסרטונים מאותה תקופה. אז יצרתי קשר עם סקוט עצמו כדי לבקש את המקור. הוא הודה, "אני לא זוכר מתי הפעם הראשונה שאמרתי את זה או איפה זה היה." אבל הוא נזכר בנוסח שלו: "הציטוט תמיד היה שגוי. זה צריך לקרוא 'מלאכותי אינטליגנטי'. "