เพิ่ม meta มากขึ้นในการวิจารณ์ของ EA

เมื่อบุคคลภายนอกวิพากษ์วิจารณ์การเห็นแก่ผู้อื่นอย่างมีประสิทธิภาพ การวิจารณ์ส่วนใหญ่จะหมุนรอบวัฒนธรรมและการเคลื่อนไหว:

  • EA กำลัง เรียกร้อง ในการที่จะกำหนดภาระทางศีลธรรมที่สูงอย่างไม่น่าเชื่อและไม่เป็นธรรมต่อผู้คนที่ขัดขวางจังหวะชีวิตปกติของพวกเขา

  • EA กำลังรวมอยู่ โดยที่ EA นั้นจบลงด้วยการคิดเกี่ยวกับ EA และออกไปเที่ยวกับ EA เท่านั้น

  • EA ขาดความ รู้สึกและสุนทรียภาพ บางอย่าง ซึ่งทำหน้าที่เป็นการ ลดทอน แนวความคิดที่ใหญ่ขึ้นหรือการเคลื่อนไหวที่เข้าใจผิด

จด บันทึกของ Michael Neilsen เกี่ยวกับการเห็นแก่ประโยชน์ ผู้อื่นอย่างมีประสิทธิภาพ :

นี่เป็นปัญหาใหญ่สำหรับ EA เมื่อคุณมีคนเอาจริงเอาจังกับหลักการที่ครอบคลุมเช่นนี้ คุณจะจบลงด้วยคนที่เครียด ประหม่า ผู้คนกังวลว่าพวกเขาใช้ชีวิตอย่างไม่ถูกต้อง คำติชมที่ถูกต้องของสถานการณ์นี้ไม่ใช่คนเดียวที่ Singer ทำ นั่นคือป้องกันไม่ให้พวกเขาทำสิ่งที่ดีที่สุด วิจารณ์ว่าเป็นวิถีชีวิตที่ผิด

( เรียกร้อง )

ประเด็นที่คล้ายคลึงกันปรากฏชัดใน การร้องเรียน เป็นครั้งคราวของ Kerry Vaughan (รวม) หรือใน กระทู้ ล่าสุดของ Aella ( vibe )

ฉันคิดว่ามีเหตุผลที่ชัดเจนที่จะปฏิเสธการวิจารณ์เหล่านี้:

  • ลักษณะ “ความต้องการ” ของ EA มักเป็นผลมาจากผลการคัดเลือก: คนที่เป็นโรคประสาทตามธรรมชาติจะดึงดูดการเคลื่อนไหวที่เสนอเป้าหมายที่ชัดเจน เนื่องจากคนที่เป็นโรคประสาทตามธรรมชาติมักสนใจวิทยาลัยที่มีชื่อเสียงหรืออาชีพที่มีการแบ่งชั้น เช่นเดียวกับที่ผู้คนต้องทนทุกข์ทรมานจากความต้องการทางศีลธรรมของ EA ผู้คนจำนวนมากต้องทนทุกข์ทรมานจากการไม่มีจุดประสงค์ที่ใหญ่กว่านั้นเช่นกัน มันคุ้มค่าที่จะลองคิดดูว่าอันไหนเป็นเรื่องธรรมดามากกว่ากัน

  • ผลกระทบ “โดยรวม” ของ EA ดูเหมือนจะประเมินค่าสูงไปโดยผู้ที่อยู่นอกชุมชน สมาชิกจำนวนมากมีชีวิตที่สมดุล และบางคนก็สนุกกับการ “มีส่วนร่วม” ในชุมชน ซึ่งจริงสำหรับ EA เช่นเดียวกับการปีนผา ดูเหมือนจะดีถ้ามันใช้ได้กับพวกเขา

  • ความรู้สึกของโฆษณา Reductio ดูเหมือนจะเป็นแนวโต้แย้งที่น่าสงสัย ชุมชนจำนวนมากถูกกล่าวหาว่ามีความรู้สึกไม่พึงปรารถนา และน่าจะสูงกว่านี้เพื่อแสดงว่าชุมชนไม่พึงปรารถนาจริงๆ

แต่ดูเหมือนว่าจะคุ้มค่าที่จะได้รับเมตาเพิ่มขึ้นอีกเล็กน้อย เหตุใดข้อโต้แย้งเหล่านี้จึงเป็นศูนย์กลางในการวิพากษ์วิจารณ์ของ EA และถึงแม้จะเป็นความจริงก็ตาม

***

เมื่อ EA วิจารณ์ EA มักจะเกี่ยวกับการคิดและยุทธวิธี:

  • EA ใช้เหตุผลทางศีลธรรมที่ดีหรือไม่?

  • EA จัดลำดับความสำคัญของสาเหตุอย่างถูกต้องหรือไม่

  • EA มีความคิดที่เข้มงวดและใช้แนวปฏิบัติที่ดีหรือไม่?

  • ขบวนการนี้ใช้ทรัพยากรด้วยดีหรือไม่?

เห็นได้ชัดว่านี่เป็นรสชาติที่แตกต่างจากการวิจารณ์ภายนอกมาก แล้วอะไรสำคัญกว่ากัน: ไม่ว่า EA จะระบุและแก้ไขปัญหาที่สำคัญที่สุดบางอย่างได้ถูกต้องหรือไม่ หรือว่าไดนามิกของการเคลื่อนไหวเหมาะสมหรือไม่?

มีความคล้ายคลึงที่ฉันคิดว่าเป็นประโยชน์ที่นี่:

นักดับเพลิงพยายามดับไฟในบ้านที่กำลังจะลุกเป็นไฟ พนักงานดับเพลิงน่าจะได้ยินเป็นอย่างดีว่า “ไม่มีไฟจริงๆ และนี่คือเหตุผล” หรือ “คุณไม่มีความคิดว่าจะดับไฟอย่างไร” หรือแม้แต่ “คุณกำลังทำให้ไฟมีขนาดใหญ่ขึ้นจริงๆ”

แต่บอกพนักงานดับเพลิงว่า

“คุณไม่ควรรู้สึกว่าคุณจำเป็นต้องดับไฟทุกครั้ง มีชีวิตมากกว่าไฟ”

“คุณค่อนข้างจะสุดโต่งเกี่ยวกับเรื่องดับเพลิงทั้งหมดนี้ สิ่งที่คุณทำคือขับรถไปและกลับจากสถานีดับเพลิง คุณมีเพื่อนไหมนอกจากนักผจญเพลิง”

“ก็ฉันไม่รู้เรื่องไฟหรอก แต่นายก็ประหม่านิดหน่อยเกี่ยวกับเรื่องทั้งหมดนี่”

สิ่งเหล่านี้เป็นเพียงการพลาดเครื่องหมายทั้งหมด มีไฟไหม้! อาจเป็นกรณีที่พนักงานดับเพลิงควรผ่อนคลายและสนุกกับชีวิตมากขึ้น แต่ดูเหมือนว่าการสนทนาที่คุ้มค่าหลังจากไฟดับ

นักผจญเพลิงทำสิ่งที่มีประโยชน์หรือไม่? นี่คือคำถามสำคัญ! ฉันคิดว่านักวิจารณ์ส่วนใหญ่ของ EA ไม่คิดว่าจะมีเหตุร้ายเกิดขึ้น และฉันคิดว่า EA ส่วนใหญ่ยินดีรับคำวิจารณ์ที่น่าสนใจตลอดแนวเหล่านี้

แต่นั่นเป็นประเด็นสำคัญ: คำถามระดับวัตถุเป็นกุญแจสำคัญ สงครามนิวเคลียร์ ภัยพิบัติทางชีวภาพ หรือความเสี่ยงจากปัญญาประดิษฐ์ที่ไม่สอดคล้องกันแสดงถึงความเสี่ยงที่สำคัญต่อความเป็นอยู่ที่ดีของมนุษย์ในช่วงชีวิตของเราหรือลูกหลานของเราหรือไม่? หรือแม้กระทั่งอยู่นอกเหนือความยาวนาน: จำนวนความทุกข์ทรมานของมนุษย์และสัตว์ในปัจจุบันนั้นเกินทนหรือไม่?

ไม่ใช่ว่าฉันไม่ชอบความคิดที่ว่า “การวิจารณ์การเคลื่อนไหว” อาจทำให้ความเป็นอันดับหนึ่งเหนือความเร่งด่วน มีการวิจารณ์สองสามบรรทัดที่เห็นได้ชัดว่าน่าสนใจ:

  • ปัญหาภายในมีขนาดใหญ่มากจนการเคลื่อนไหวไม่สามารถบรรลุเป้าหมายได้

  • Groupthink ครอบงำการเคลื่อนไหว (แต่ถึงแม้สิ่งนี้จะต้องมาพร้อมกับความเชื่อผิดๆ ที่เพิ่มขึ้น)

และฉันเปิดรับข้อโต้แย้งว่าอย่าทำงานกับกลุ่มที่มีข้อบกพร่องจะดีกว่า แม้ว่าพวกเขาจะทำงานได้ดีก็ตาม

แต่นั่นไม่ใช่อายุของการวิพากษ์วิจารณ์ โดยปกติแล้ว EA จะมีปัญหาการเคลื่อนไหวบางอย่าง โดยไม่คำนึงถึงขอบเขตที่เกี่ยวข้อง: มีคนเครียดมากเกินไป มีการเลื่อนเวลามากเกินไป แต่ส่วนใหญ่ยอมรับอย่างง่ายดายว่า EA มีประสิทธิภาพและมีการจัดระเบียบสูง ดังนั้นจึงจำเป็นต้องวิจารณ์

แต่สิ่งสำคัญคือต้องเข้าใจภาระที่นี่ คุณต้องเถียงว่าทำไมปัญหาการเคลื่อนไหวมีความสำคัญมากกว่าปัญหาระดับวัตถุ “การป้องกันหายนะในระยะใกล้” ยุติธรรมดีพอสมควรในกรอบทางศีลธรรมส่วนใหญ่ เป็นไปได้มากว่าในกรณีส่วนใหญ่มันจะเข้ามาแทนที่ “คนที่ค่อนข้างเข้มข้น”! ฉันอยากรู้มากที่จะได้ยินข้อโต้แย้งว่าทำไมถึงไม่เป็นเช่นนั้น แต่ก็ไม่ง่ายสำหรับฉัน โดยปกติเรายินดีที่จะร่วมทีมกับคนที่ทำให้เรารำคาญเมื่อเงินเดิมพันสูงพอ

สิ่งที่น่าสนใจเกี่ยวกับแนวการโต้แย้งของ Kerry โดยเฉพาะคือเขาเห็นด้วยกับ EA ในสิ่งที่ฉันจะพิจารณาประเด็นที่สำคัญที่สุดสองประการคือ ความเสี่ยงของเทคโนโลยีชีวภาพและปัญญาประดิษฐ์

ฉันกำลังมองหาชื่อที่ดี tbh

ฉัน Decel แต่เฉพาะใน AGI และชอบ synth bio การเร่งความเร็วแบบ Pro โดยทั่วไปทุกที่อื่น ฉันคิดว่า EA และ MIRI ครอบงำการสนทนานี้มานานเกินไป

พันธมิตรต่อต้าน AGI? ต้องการชื่อที่ดีกว่า

— 𝐊𝐞𝐫𝐫𝐲 𝐕𝐚𝐮𝐠𝐡𝐚𝐧 (ในออสติน ถึง ส.ค. 6) (@KerryLVaughan) 15 กรกฎาคม 2022

ฉันคิดว่าเราควรพบการแตกแยกเมื่อเผชิญกับปัญหาใหญ่ที่ไม่น่าสนใจ!

***

ในแง่หนึ่ง ฉันกำลังสะท้อน Neel Nanda:Holy Shit, X Risk เขาเขียน:

TL;DR หากคุณเชื่อว่าคำกล่าวอ้างที่สำคัญของ “มีโอกาส >=1% ที่ AI จะทำให้เกิดความเสี่ยง x และ >=0.1% ที่ชีวภาพจะทำให้เกิดความเสี่ยง x ในชีวิตของฉัน” ก็เพียงพอแล้วที่จะพิสูจน์การกระทำหลักที่เกี่ยวข้อง คะแนนของ EA สิ่งนี้ชัดเจนภายใต้มุมมองทางศีลธรรมที่สมเหตุสมผลที่สุดและการอภิปรายทั่วไปเกี่ยวกับลัทธิระยะยาว รุ่นอนาคต และรายละเอียดอื่น ๆ ของปรัชญาคุณธรรมในเนื้อหาเกริ่นนำเป็นสิ่งที่รบกวนสมาธิโดยไม่จำเป็น

ตามที่ Neel โต้แย้ง EA เวอร์ชันนี้จะแทนที่คำถามทางศีลธรรมขั้นพื้นฐานที่สุด”

  • ผลสืบเนื่องถูกหรือผิด?

  • เราควรเห็นแก่ตัวหรือเสียสละแค่ไหน?

  • คุณค่าของชีวิตในอนาคตคืออะไร?

ดูเหมือน: ฉันควรหลีกเลี่ยงการเมาแล้วขับหรือไม่?

ดังนั้นฉันจึงไม่คิดว่าการโต้เถียงเกี่ยวกับความถูกต้องของการใช้ประโยชน์ ความทุกข์ การหาปริมาณ ฯลฯ นั้นคุ้มค่าที่จะมาแทนที่วาทกรรมการเคลื่อนไหว คำถามคือวัตถุระดับหนึ่ง: มีความเสี่ยงที่สำคัญของเหตุการณ์อัตถิภาวนิยมในสมัยของเราหรือไม่

อันที่จริง โลกอาจไม่ได้ดูเหมือนคนอ่อนแอที่นีลอธิบาย เราอาจไม่ได้อยู่ในยุคเร่งด่วน เราอาจไม่ได้อยู่ในศตวรรษที่สำคัญที่สุด แต่นี่เป็นข้อโต้แย้งที่สำคัญที่สุดอย่างชัดเจน!

ฉันเห็นอกเห็นใจว่าทำไม EA ถึงกังวลเกี่ยวกับการทำให้สายของ Neel โดดเด่นกว่าใคร MacAskill จะ ให้ ตัวอย่างว่าทำไมเราจึงควรพยายามโน้มน้าวผู้คนถึงคุณค่าที่แท้จริงของเรา ไม่ใช่ความหมายที่ใกล้เคียงกัน:

[มีองค์กรการกุศล] ชื่อ ScotsCare ก่อตั้งขึ้นในศตวรรษที่ 17 หลังจากการรวมตัวกันของอังกฤษและสกอตแลนด์ มีชาวสกอตจำนวนมากที่อพยพไปลอนดอน และเราเป็นคนยากจนในลอนดอน ดังนั้นจึงเหมาะสมที่จะก่อตั้งองค์กรนี้ขึ้นเป็นองค์กรไม่แสวงหากำไรเพื่อให้มั่นใจว่าชาวสก็อตที่ยากจนมีอาชีพการงาน มีหนทางหาเลี้ยงชีพ และอื่นๆ

ในศตวรรษที่ 21 ชาวสก็อตผู้น่าสงสารในลอนดอนเป็นปัญหาระดับโลกที่ใหญ่ที่สุดหรือไม่? ไม่มันไม่ใช่. อย่างไรก็ตาม ScotsCare ยังคงดำเนินต่อไปจนถึงทุกวันนี้ กว่า 300 ปีต่อมา

น่าจะเป็นคุณค่าของ ScotsCare ที่ช่วยเพื่อนร่วมชาติที่ต้องการความช่วยเหลือ แต่แทนที่จะฝังคุณค่านั้นไว้ในองค์กรการกุศล พวกเขาได้รวบรวมอาณัติเฉพาะ: ช่วยชาวสก็อตในลอนดอน ตอนนี้องค์กรการกุศลล้มเหลวในการเติมเต็มคุณค่าทางศีลธรรม (ห่างไกลจากอุดมคติ) มันไม่ได้ช่วยชาวสก็อตที่ต้องการความช่วยเหลือมากที่สุด

มีความเสี่ยงที่จะเกิดสิ่งเดียวกันนี้ขึ้นกับ EA: หากการเคลื่อนไหวกลายเป็นเพียงการป้องกันความเสี่ยง X ในช่วงชีวิตของเรา เราจะสละโอกาสมหาศาลเพื่อสร้างอนาคตที่ดีกว่า

แต่ในขณะที่สิ่งนี้อาจเป็นจริงสำหรับการเคลื่อนไหวของ EA มีบางอย่างผิดปกติอย่างชัดเจนเมื่อเราไม่สามารถโฟกัสและสร้างพันธมิตรที่กว้างขึ้นรอบภัยพิบัติระยะใกล้

นั่นคือปัญหาการเคลื่อนไหวที่ต้องแก้ไข

พาสต้าและความก้าวหน้า: การประชดที่ยิ่งใหญ่

สถานะ Epistemic: ต่ำ

เป้าหมายสูงสุดของชุมชน Progress คือการเร่งความก้าวหน้า ส่วนหนึ่งเกี่ยวข้องกับการวิจัยปัจจัยการผลิตของความคืบหน้า อีกส่วนหนึ่งเกี่ยวข้องกับการสนับสนุนนโยบายที่ส่งเสริมความก้าวหน้า ข้อเสนอนโยบายทั่วไปบางส่วน ได้แก่:

  • แก้ไขปัญหาการจัดหาที่อยู่อาศัย

  • การปรับปรุงและเพิ่มการใช้จ่ายด้านการวิจัยและพัฒนา

  • การย้ายถิ่นฐานที่เพิ่มขึ้น

  • ยกเลิกกฎระเบียบที่เกินควร โดยเฉพาะในภาคพลังงาน

ทั้งหมดนี้จะดีมากและฉันสนับสนุนพวกเขา ในเวลาเดียวกัน ความพยายามใดๆ ในการเพิ่มการเติบโตจะดำเนินไปพร้อมกับอุปสรรคหลายประการ:

  • รัฐบาลสหรัฐฯ และรัฐบาลตะวันตกอื่น ๆ ดูเหมือนจะไม่เป็นระเบียบอย่างลึกซึ้ง นำไปสู่การขยายกฎระเบียบและอาจทำให้การเปลี่ยนแปลงยากขึ้น

  • การเติบโตของประชากรกำลัง ลดลง ในสหรัฐอเมริกา เนื่องจากมีการเกิดน้อยลงและการย้ายถิ่นฐานน้อยลง ภายใต้โมเดลการเติบโตส่วนใหญ่ ผู้คนเป็นแหล่งที่มาหลักของแนวคิดใหม่ๆ

  • ความคิดที่ดี (น่าจะ) เริ่มหายากขึ้น การเติบโตที่ชายแดนอาจยากขึ้นเมื่อเราเลือก “ผลไม้ห้อยต่ำ” แม้ว่าจะเป็นที่ ถกเถียงกัน บ่อยครั้งก็ตาม

สหรัฐอเมริกาเติบโตขึ้นโดยเฉลี่ย 2.7% ตั้งแต่การบริหารของเรแกน 10 ปีที่ผ่านมาน่าผิดหวังมากกว่า น้อยกว่า 2% ขบวนการ Progress ที่ประสบความสำเร็จจะทำอะไรได้บ้าง เพิ่มอัตราเป็น 2.5%? ถึง 4%?

ฉันควรเน้นย้ำว่าฉันชื่นชมนโยบายและการวิจัยทั้งหมดที่กำลังดำเนินการอยู่โดยผู้สนับสนุนความก้าวหน้า แต่โดยปกติเราเข้าใกล้ Progress จากกรอบของ Great Stagnation: เราเคยเติบโตอย่างรวดเร็ว แล้วมีบางอย่างเกิดขึ้นราวๆ ปี 1971 และตอนนี้เราเติบโตอย่างช้าๆ แต่ฉันสงสัยว่าเราควรพิจารณามุมมองโลกที่แตกต่างกันเกี่ยวกับจุดที่เรายืนอยู่เกี่ยวกับอนาคตด้วยหรือไม่

ฉันสนใจเป็นพิเศษในมุมมองที่ว่าเราอยู่ใน ศตวรรษที่สำคัญที่สุด ในมุมมองนี้ เรากำลังเข้าใกล้ความก้าวหน้าที่สามารถเอาชนะกระแสลมของการลดลงของจำนวนประชากรและการค้นหาแนวคิดใหม่ๆ ที่ยากขึ้นกว่าเดิม: การผลิตความรู้ผ่านระบบอัตโนมัติ

Holden Karnofsky เรียกระบบ AI นี้ว่า PASTA: กระบวนการเพื่อความก้าวหน้าทางวิทยาศาสตร์และเทคโนโลยีอัตโนมัติ หาก PASTA หรือสิ่งที่คล้ายกันถูกสร้างขึ้น เราอาจเข้าสู่ช่วงเวลาของการเติบโตที่ เพิ่มขึ้น ซึ่งจะนำไปสู่อนาคตที่ต่างไปจากเดิมอย่างสิ้นเชิงอย่างรวดเร็ว

ฟังดูค่อนข้างจะเป็นเรื่องไกลตัว แต่ก็ไม่มีข้อโต้แย้งใดๆ ที่ทำลายล้างกับมัน วิทยาศาสตร์ดูเหมือนเป็นสิ่งที่ยากที่จะทำให้เป็นอัตโนมัติ แต่ AI ยังไม่ก้าวหน้าอย่างที่เราคาดไว้ แทนที่จะค่อยๆ พัฒนาจากฝีมือต่ำไปเป็นแรงงานที่มีทักษะสูง ตามที่มักคาดไว้ ดูเหมือนว่า AI จะอยู่ในเส้นทางที่ผิดพลาดโดยมีความก้าวหน้าอย่างสร้างสรรค์ เช่น การเขียน (ระบบ GPT) และตอนนี้คือภาพประกอบ (DALL-E) แมชชีนเลิร์นนิงเป็นเรื่องเกี่ยวกับการฝึกอบรมโดยการลองผิดลองถูกโดยไม่มีคำแนะนำที่แม่นยำ และน่าประทับใจเท่ากับรุ่นปัจจุบัน พวกมันไม่ใหญ่เท่ากับสมองของมนุษย์แม้แต่ 1% แต่นั่นจะเปลี่ยนไปอย่างรวดเร็วเมื่อพลังการประมวลผลมีราคาถูกลง (เพิ่มเติมเกี่ยวกับ AI และ bioachnors ที่นี่ )

นอกจากนี้เมื่อใดที่เพื่อนที่มีความก้าวหน้าไม่ชอบอนาคตของไซไฟ?

หากสิ่งนี้ดูน่าสนใจโพสต์ ของ Karnofsky ใน PASTA (และซีรีส์ที่สำคัญที่สุดในศตวรรษที่เหลือ) จะกล่าวถึงสถานการณ์เหล่านี้ในรายละเอียดมากขึ้น

เราควรจะสร้าง PASTA และเก็บเกี่ยวรางวัลแห่งความก้าวหน้าหรือไม่? ไม่น่าจะเป็นไปได้ที่เราควรจะกังวลอย่างมาก มีความเสี่ยงร้ายแรงจากปัญญาประดิษฐ์ที่ไม่ตรงแนวซึ่งอาจเป็นภัยคุกคามต่ออารยธรรมมนุษย์และอาจมีความเสี่ยงจากการที่มนุษย์ตั้งรกรากกาแลคซีโดยไม่มีการไตร่ตรองอย่างมีจริยธรรมเพียงพอเกี่ยวกับวิธีการทำเช่นนั้นด้วยความรับผิดชอบ

ดังนั้นเราจึงถูกจับได้ว่าเป็นเรื่องตลก: เป้าหมายการเติบโตที่ใกล้เคียงกันจำนวนมากดูดี แต่ไม่เปลี่ยนแปลงโลก และ “เดิมพันใหญ่” อาจเป็นภารกิจฆ่าตัวตาย ฉันไม่แน่ใจว่าจะทำอย่างไรกับสิ่งทั้งหมดนี้ ความหมายอาจเป็นเพียงการทำงานในการจัดแนว AI และนโยบาย ฉันคิดว่าอย่างน้อยที่สุดก็คุ้มค่าที่เราจะอยากรู้เกี่ยวกับการอภิปรายเหล่านี้มากขึ้น

มีการประชดประชันกันอย่างมาก เนื่องจาก EA มองโลกในแง่ร้ายเกี่ยวกับวิถี AI พวกเขามองเห็นความเป็นไปได้ในคำพูดของ Karnofsky ที่เป็น “อารยธรรมที่กว้างใหญ่และมั่นคงในกาแล็กซี” มันจะไม่งี่เง่าเหรอถ้าเรากำลังทำงานกับการใช้จ่ายของ NSF เมื่อเครื่องบินเริ่มขึ้น?