Nghị viện châu Âu được thiết lập để chính thức hóa quan điểm của mình về những gì có thể là bộ quy định đầu tiên trên thế giới về AI bởi một cơ quan lập pháp lớn, khi các nhà lập pháp EU đạt được thỏa thuận chính trị tạm thời vào thứ Năm.
Các thành viên của Nghị viện Châu Âu (MEP) đã tranh luận về nội dung của Đạo luật AI của EU và đã đồng ý về các sửa đổi thỏa hiệp, với một vài điều chỉnh vào phút cuối liên quan đến AI tổng quát.
“Các sửa đổi thỏa hiệp đã được thống nhất vào ngày hôm qua thông qua các cuộc đàm phán nội bộ giữa các báo cáo viên và báo cáo viên bóng tối và sẽ được MEP bỏ phiếu trong ủy ban vào ngày 11 tháng 5 năm 2023,” một quan chức của Quốc hội cho biết. “Sau đó sẽ là một cuộc bỏ phiếu toàn thể vào tháng 6, sau đó các cuộc đàm phán với Hội đồng (các quốc gia thành viên) sẽ bắt đầu với quan điểm đạt được một thỏa thuận liên thể chế trước cuối năm nay.”
Ủy ban Châu Âu, cơ quan hành pháp của Liên minh Châu Âu, đã nghiên cứu khung pháp lý cho AI từ đầu năm 2020. Vào tháng 4 năm 2021, Ủy ban đã đề xuất một bộ quy định dự thảo cho Đạo luật AI, nhằm cung cấp một khuôn khổ pháp lý toàn diện. khuôn khổ cho sự phát triển và triển khai các hệ thống AI ở EU. Đạo luật phải được Nghị viện châu Âu phê chuẩn.
Các quy định được đề xuất bao gồm một loạt các ứng dụng AI và nhằm thúc đẩy sự tin cậy và minh bạch trong việc sử dụng AI, bảo vệ các quyền và tự do cơ bản, đồng thời đảm bảo các nguyên tắc đạo đức và an toàn trong phát triển và triển khai AI.
ChatGPT và các AI liên quan nhận được các chỉnh sửa vào phút cuối
Xử lý các hệ thống AI không phục vụ cho một trường hợp sử dụng cụ thể là vấn đề được tranh luận nhiều nhất trong đề xuất. Các hệ thống AI đa năng xử lý nhiều nhiệm vụ khác nhau và không được đề cập trong đề xuất ban đầu. Họ chỉ tìm thấy sự cân nhắc sau sự gián đoạn do ChatGPT tạo ra, một mô hình AI tổng quát, có mục đích chung, nhận đầu vào văn bản và trả về các phản hồi chất lượng cao, dựa trên ngữ cảnh cho người dùng.
MEP đồng ý rằng các công cụ tổng quát như ChatGPT, DALL-E và Midjourney phải được quy định về mặt thiết kế và triển khai, phù hợp với luật pháp EU và các quyền cơ bản, bao gồm quyền tự do ngôn luận. Một thay đổi lớn được thực hiện đối với đạo luật là các công cụ này sẽ phải tiết lộ bất kỳ tài liệu có bản quyền nào được sử dụng để phát triển hệ thống của họ.
Các yêu cầu khác đối với các mô hình AI tổng quát bao gồm thử nghiệm và giảm thiểu rủi ro có thể dự đoán trước một cách hợp lý đối với sức khỏe, sự an toàn, các quyền cơ bản, môi trường, nền dân chủ và pháp quyền, với sự tham gia của các chuyên gia độc lập.
Đạo luật cũng yêu cầu lập tài liệu về các rủi ro không thể giảm thiểu trong các mô hình AI và lý do tại sao chúng không được giải quyết. Đã có những lo ngại rằng ChatGPT có thể được sử dụng cho các mục đích xấu, bao gồm tạo tài liệu lừa đảo, tải trọng của trình đánh cắp thông tin, tập lệnh nhị phân DDoS và mã độc tống tiền.
Các chuyên gia đặt câu hỏi liệu các quy định cho các hệ thống dựa trên mô hình ngôn ngữ lớn (LLM), chẳng hạn như ChatGPT và DALL-E, có thể được ban hành mà không ảnh hưởng đến chức năng cốt lõi của chúng hay không.
Chris Steffen, một nhà phân tích tại Enterprise Management cho biết: “Rất đơn giản — tôi không biết làm cách nào để một người điều chỉnh thứ gì đó như Chat GPT mà không làm giảm hiệu quả của giải pháp của họ”. “Hơn nữa, còn những phiên bản được tạo riêng cho mục đích bất chính thì sao? Sau khi công nghệ trở nên phổ biến và dễ tiếp cận, những kẻ xấu có thể (và sẽ) thiết lập ‘AI trò chuyện kẻ xấu’ của riêng họ để làm bất cứ điều gì họ muốn và tối ưu hóa cho những mục đích đó. Vì vậy, bạn (và bạn có thể) cũng điều chỉnh công nghệ không? Không có khả năng.”
Đạo luật AI chủ yếu tuân theo một hệ thống phân loại
Khác với cuộc tranh luận gần đây về AI có mục đích chung, hành động này chủ yếu tập trung vào việc phân loại các giải pháp AI hiện có thành các danh mục dựa trên rủi ro — không thể chấp nhận được, cao, hạn chế và tối thiểu.
Hệ thống trí tuệ nhân tạo chỉ đưa ra những rủi ro hạn chế và tối thiểu, chẳng hạn như những hệ thống được sử dụng cho bộ lọc thư rác hoặc trò chơi điện tử, có thể được sử dụng với một số yêu cầu miễn là có tính minh bạch. Tuy nhiên, các hệ thống AI gây ra những rủi ro không thể chấp nhận được, chẳng hạn như những hệ thống được sử dụng cho hệ thống chấm điểm xã hội của chính phủ và hệ thống nhận dạng sinh trắc học thời gian thực trong không gian công cộng, thường sẽ không được phép, trừ một số trường hợp ngoại lệ.
Các nhà phát triển và người dùng được phép sử dụng các hệ thống AI có rủi ro cao, nhưng họ phải tuân thủ các quy định bắt buộc phải kiểm tra kỹ lưỡng, tài liệu phù hợp về chất lượng dữ liệu và khung trách nhiệm giải trình nêu rõ sự giám sát của con người. Ví dụ về các hệ thống AI được coi là có rủi ro cao bao gồm xe tự lái, thiết bị y tế và máy móc cơ sở hạ tầng quan trọng.
Thỏa thuận đạt được vào thứ Năm hoàn thiện văn bản, vẫn có thể điều chỉnh nhỏ trước khi bỏ phiếu vào ngày 11 tháng 5, trong đó tất cả các nhóm sẽ phải bỏ phiếu về thỏa hiệp mà không có khả năng sửa đổi thay thế.
Bản quyền © 2023 IDG Communications, Inc.