เว็บสล็อตแตกง่ายทำอะไรได้บ้าง

เว็บสล็อตแตกง่ายทำอะไรได้บ้าง

Michael Kearns นักวิทยาศาสตร์คอมพิวเตอร์แห่งมหาวิทยาลัยเว็บสล็อตแตกง่ายเพนซิลเวเนียและผู้เขียนร่วมของหนังสือThe Ethical Algorithm ปี 2019 ได้วางปัญหาไว้ที่ขอบเขตของความสามารถในการจัดการ ที่ปลายด้านหนึ่งคือสิ่งที่เรียกว่าความแตกต่างของความเป็นส่วนตัว ความสามารถในการเพิ่มเสียงรบกวนลงในชุดข้อมูลของ พูด เวชระเบียน เพื่อให้สามารถแบ่งปันอย่างเป็นประโยชน์กับนักวิจัยโดยไม่ต้องเปิดเผยรายละเอียดเกี่ยวกับบันทึกแต่ละรายการมากนัก ตอนนี้เราสามารถให้หลักประกันทางคณิตศาสตร์ว่าข้อมูลส่วนตัวของปัจเจกบุคคลควรคงอยู่อย่างไร

ที่ไหนสักแห่งที่อยู่ตรงกลางของสเปกตรัมคือความเป็นธรรมในการเรียนรู้ของเครื่อง 

นักวิจัยได้พัฒนาวิธีการเพิ่มความเป็นธรรมโดยการลบหรือเปลี่ยนแปลงข้อมูลการฝึกอบรมที่มีอคติ หรือเพิ่มความเท่าเทียมกันบางประเภทให้สูงสุด เช่น เงินกู้ ในขณะที่ลดผลกำไรที่ลดลง ถึงกระนั้น ความยุติธรรมบางประเภทก็จะขัดแย้งกันตลอดไป และคณิตศาสตร์ก็ไม่สามารถบอกเราได้ว่าเราต้องการสิ่งใด

ที่ปลายสุดคือการอธิบายได้ เมื่อเทียบกับความเป็นธรรม ซึ่งสามารถวิเคราะห์ทางคณิตศาสตร์ได้หลายวิธี คุณภาพของคำอธิบายนั้นยากที่จะอธิบายในแง่คณิตศาสตร์ “ฉันรู้สึกว่าฉันยังไม่เห็นคำจำกัดความที่ดีสักคำเลย” Kearns กล่าว “คุณสามารถพูดได้ว่า ‘นี่คืออัลกอริธึมที่จะใช้โครงข่ายประสาทเทียมที่ได้รับการฝึกอบรมและพยายามอธิบายว่าทำไมมันถึงปฏิเสธคุณสำหรับการกู้ยืมเงิน’ แต่ [คำอธิบาย] ไม่ได้รู้สึกว่ามีหลักการ” ในท้ายที่สุด หากผู้ชมไม่เข้าใจ มันไม่ใช่คำอธิบายที่ดี และการวัดความสำเร็จของความสำเร็จนั้น ไม่ว่าคุณจะนิยามความสำเร็จอย่างไร ก็ต้องศึกษาจากผู้ใช้

บางอย่างเช่นกฎสามข้อของอาซิมอฟจะไม่ช่วยเราให้รอดจากหุ่นยนต์

ที่ทำร้ายเราในขณะที่พยายามช่วยเรา และแม้ว่ารายชื่อจะขยายไปถึงกฎหมายนับล้านฉบับ แต่จดหมายของกฎหมายก็ไม่เหมือนกับเจตนารมณ์ของกฎหมาย ทางออกหนึ่งที่เป็นไปได้คือสิ่งที่เรียกว่าการเรียนรู้เสริมแรงผกผัน ซึ่งคอมพิวเตอร์อาจเรียนรู้ที่จะถอดรหัสสิ่งที่เราให้คุณค่าจริงๆ ตามพฤติกรรมของเรา

รูปถ่ายของโดรน STM Kargu สองแถวในโกดัง

การมีอยู่ของอาวุธสังหารอัตโนมัติ เช่น โดรน STM Kargu ที่ผลิตในตุรกี ทำให้ผู้เชี่ยวชาญเรียกร้องให้สั่งห้ามอุปกรณ์ที่สามารถโจมตีได้โดยไม่มีการแทรกแซงของมนุษย์

หน่วยงาน MEHMET KAMAN / ANADOLU ผ่าน GETTY IMAGES

วิศวกร รักษาตัวเอง

ในเรื่องสั้นปี 1950 เรื่อง “The Evitable Conflict” อาซิมอฟได้กล่าวถึงสิ่งที่กลายเป็น “กฎศูนย์” ซึ่งเป็นกฎหมายที่ใช้แทนที่กฎอื่นๆ ทั้งหมด: “หุ่นยนต์ไม่อาจทำร้ายมนุษยชาติได้ หรือโดยความเฉยเมย ปล่อยให้มนุษยชาติได้รับอันตราย” ควรไปโดยไม่บอกว่ากฎควรใช้กับ “หุ่นยนต์” แทน “หุ่นยนต์” แน่นอนว่านักวิทยาศาสตร์คอมพิวเตอร์หลายคนหลีกเลี่ยงการทำร้ายมนุษยชาติ แต่หลายคนก็ไม่ได้มีส่วนร่วมอย่างแข็งขันกับผลกระทบทางสังคมจากงานของพวกเขา ซึ่งทำให้มนุษย์ได้รับอันตรายได้อย่างมีประสิทธิภาพ Margaret Mitchell นักวิทยาศาสตร์คอมพิวเตอร์ที่ร่วมนำทีม Ethical AI ของ Google และ ตอนนี้ปรึกษากับองค์กรเกี่ยวกับจรรยาบรรณเทคโนโลยี (เธอไม่เกี่ยวข้องกับ Melanie Mitchell นักวิทยาศาสตร์คอมพิวเตอร์)

Grosz แห่ง Harvard กล่าวว่าอุปสรรคอย่างหนึ่งคือนักวิจัยจำนวนมากเกินไปไม่ได้รับการฝึกฝนด้านจริยธรรมอย่างเหมาะสม แต่เธอหวังว่าจะเปลี่ยนสิ่งนั้น Grosz และปราชญ์ Alison Simmons เริ่มโครงการที่ Harvard ชื่อ Embedded EthiCS ซึ่งผู้ช่วยสอนที่มีการฝึกอบรมด้านปรัชญาจะฝังอยู่ในหลักสูตรวิทยาการคอมพิวเตอร์และสอนบทเรียนเกี่ยวกับความเป็นส่วนตัวหรือการเลือกปฏิบัติหรือข่าวปลอม โปรแกรมนี้แพร่กระจายไปยัง MIT, Stanford และ University of Toronto

“เราพยายามให้นักเรียนคิดถึงคุณค่าและการแลกเปลี่ยนคุณค่า” Grosz กล่าว สองสิ่งได้โจมตีเธอ ประการแรกคือปัญหาที่นักเรียนมีกับปัญหาที่ไม่มีคำตอบที่ถูกต้องและต้องการการโต้เถียงสำหรับตัวเลือกเฉพาะ ข้อที่สองคือ แม้จะรู้สึกหงุดหงิด “นักเรียนสนใจประเด็นชุดนี้มากน้อยเพียงใด” Grosz กล่าว

อีกวิธีหนึ่งในการให้ความรู้แก่นักเทคโนโลยีเกี่ยวกับอิทธิพลของพวกเขาคือการขยายความร่วมมือ ตามที่ Mitchell กล่าว “วิทยาการคอมพิวเตอร์จำเป็นต้องเปลี่ยนจากการถือคณิตศาสตร์ในฐานะที่เป็นทั้งหมดและจบทั้งหมด มาเป็นการรักษาทั้งคณิตศาสตร์และสังคมศาสตร์ และจิตวิทยาด้วย” นักวิจัยควรนำผู้เชี่ยวชาญในหัวข้อเหล่านี้เข้ามาสล็อตแตกง่าย