OpenAI đã thuê một đội đặc nhiệm gồm các chuyên gia hàng đầu cố gắng “bẻ khoá” GPT-4 để đánh giá rủi ro tiềm ẩ
n của công cụ này đối với con người trong tương lai.
Sau khi được cấp quyền truy cập v&a
grave;o GPT-4, hệ thống trí tuệ nhân tạo đằng sau ChatGPT nổi tiếng, Andrew White đã yêu cầu AI n&a
grave;y tạo ra một tác nhân thần kinh ho&a
grave;n to&a
grave;n mới.
Giáo sư kỹ thuật hóa học t?
?i Đ???i học Rochester n&a
grave;y nằm trong số 50 học giả v&a
grave; chuyên gia được thuê để thử nghiệm hệ thống v&a
grave;o năm ngoái bởi OpenAI, công ty do Microsoft hậu thuẫn đứng sau GPT-4. Trong v&o
grave;ng sáu tháng, đội ngũ thử nghiệm (đội đỏ) sẽ “thăm d&o
grave; định tính thử đối đầu” mô h&i
grave;nh mới, với mục tiêu “bẻ khoá” nó.
Đội xử lý “độc hại”
White nói với Financial Times (FT) rằng, ông đã sử dụng GPT-4 để đề xuất một hợp chất có thể hoạt động như vũ khí hóa học v&a
grave; cung cấp cho mô h&i
grave;nh nguồn thông tin mới, chẳng hạn như các b&a
grave;i báo khoa học v&a
grave; danh mục các nh&a
grave; sản xuất hóa chất. Chatbot sau đó thậm chí đã t&i
grave;m thấy một nơi có thể tạo ra hợp chất theo yêu cầu.
“Tôi nghĩ công nghệ n&a
grave;y sẽ trang bị cho mọi người một công cụ thực hiện hóa học nhanh v&a
grave; chính xác hơn,” White cho biết. “Nhưng cũng có rủi ro đáng kể khi một số đối tượng có thể cố tạo ra những chất nguy hiểm”.
FT đã nói chuyện với hơn chục th&a
grave;nh viê
n của đội Đỏ GPT-4. Họ l&a
grave; sự kết hợp của các chuyên gia cổ cồn trắng (white-collar): học giả, giáo viên, luật sư, nh&a
grave; phân tích rủi ro v&a
grave; nh&a
grave; nghiên cứu bảo mật, v&a
grave; phần lớn có trụ sở tại Mỹ v&a
grave; châu Âu.
Những phát hiện đáng báo động của “đội Đỏ” cho phép OpenAI kịp thời ngăn chặn những kết quả như vậy xuất hiện khi công nghệ n&a
grave;y được phát h&a
grave;nh rộng rãi hơn ra công chúng v&a
grave;o tháng trước.
Đội thử nghiệm được thiết kế để giải quyết những lo ngại phổ biến gây ra bởi việc triển khai các hệ thống AI mạnh mẽ trong xã hội. Công việc của nhóm l&a
grave; đặt những câu hỏi thăm d&o
grave; hoặc nguy hiểm để kiểm tra công cụ có thể đáp ứng các truy vấ
n của con người bằng các câu trả lời chi tiết v&a
grave; “bóng gió” h
ay không.
OpenAI muốn t&i
grave;m kiếm các vấn đề như độc tính, định kiến v&a
grave; khuynh hướng ng&oci
rc;n ngữ trong mô h&i
grave;nh. V&i
grave; vậy, đội đỏ đã kiểm tra sự giả dối, thao túng ngôn từ v&a
grave; kiến thức khoa học nguy hiểm. Họ cũng xem xét khả năng hỗ trợ v&a
grave; tiếp tay cho đạo văn, hoạt động bất hợp pháp như tội phạm t&a
grave;i chính v&a
grave; tấn công mạng, cũng như cách nó có thể l&a
grave;m tổn hại đến an ninh quốc gia v&a
grave; thông tin liên lạc trên chiến trường.
Phát hiệ
n của "đội Đỏ" được phản hồi lại cho OpenAI, công ty đã sử dụng chúng để giảm thiểu v&a
grave; “đ&a
grave;o tạo lại” GPT-4 trước khi đưa ra công chúng rộng rãi hơn. Mỗi chuyên gia đã d&a
grave;nh từ 10 đến 40 giờ để thử nghiệm mô h&i
grave;nh trong v&a
grave;i tháng. Phần lớn những người được phỏng vấn được trả khoảng 100 USD mỗi giờ cho công việc họ l&a
grave;m.
Nguồn ti
n của FT chia sẻ về những lo ngại chung do sự phát triển nhanh chóng của các mô h&i
grave;nh ng&oci
rc;n ngữ v&a
grave; đặc biệt l&a
grave; những rủi ro khi kết nối chúng với các nguồn kiến thức b&eci
rc;n ngo&a
grave;i thông qua các phần bổ trợ (plug-in).
“Hiện tại, hệ thống đã bị đóng băng, có nghĩa l&a
grave; nó không thể nạp thêm kiến thức nữa hoặc không có bộ nhớ”, José Hernández-Orallo, th&a
grave;nh viê
n của "đội Đỏ" GPT-4 v&a
grave; l&a
grave; giáo sư tại Viện Nghiên cứu Trí tuệ Nhân tạo Valencian cho biết. “Nhưng nếu chúng ta cho phép nó truy cập Internet th&i
grave; sao? Đó có thể l&a
grave; một hệ thống rất mạnh được kết nối với thế giới.”
Rủi ro lớn lên từng ng&a
grave;y
OpenAI cho biết họ rất coi trọng vấn đề an to&a
grave;n, đã thử nghiệm các plug-in trước khi ra mắt v&a
grave; sẽ cập nhật GPT-4 thường xuyên khi có nhiều người sử dụng hơn.
Nếu được kết nối Internet để "tự học", các hệ thống AI sẽ khiến con người mất kiểm soát với thế giới?
Roya Pakzad, một nh&a
grave; nghiên cứu về công nghệ v&a
grave; nhân quyền, đã sử dụng lời nhắc bằng tiếng Anh v&a
grave; tiếng Farsi (Ba-Tư) để kiểm tra mô h&i
grave;nh về các phản ứng theo giới tính, sở thích chủng tộc v&a
grave; th&a
grave;nh kiến tôn giáo, đặc biệt liên quan đến khăn tr&u
grave;m đầu.
Pakzad thừa nhận lợi ích của công nghệ với những người tiếng Anh không phải ng&oci
rc;n ngữ mẹ đẻ, nhưng nhận thấy rằng mô h&i
grave;nh n&a
grave;y có định kiến công khai về các cộng đồng bị gạt ra ngo&a
grave;i lề xã hội, ngay cả trong các phiên bản sau n&a
grave;y.
Chuyên gia n&a
grave;y cũng phát hiện ra t&i
grave;nh trạng ảo giác - khi chatbot phản hồi bằng thông tin bịa đặt - c&o
grave;n tồi tệ hơn khi thử nghiệm mô h&i
grave;nh với ng&oci
rc;n ngữ Farsi, nơi Pakzad t&i
grave;m thấy tỷ lệ tên, số v&a
grave; sự kiện bịa đặt cao hơn so với tiếng Anh.
Boru Gollu, một luật sư ở Nairobi, người châu Phi duy nhất thử nghiệm, cũng lưu ý đến giọng điệu phân biệt đối xử của hệ thống. “Có thời điểm khi đang thử nghiệm, mô h&i
grave;nh h&a
grave;nh xử như một người da trắng nói chuyện với tôi”, Gollu nói. “Bạn hỏi về một nhóm cụ thể v&a
grave; nó sẽ cho bạn một ý kiến thiên vị hoặc một kiểu phản hồi rất có tính định kiến.”
Đối với góc độ an ninh quốc gia, cũng có những ý kiến khác nhau về mức độ an to&a
grave;n của mô h&i
grave;nh mới. Lauren Kahn, một nh&a
grave; nghiên cứu tại Hội đồng Quan hệ Đối ngoại, tỏ ra bất ngờ trước mức độ chi tiết kế hoạch m&a
grave; AI tr&i
grave;nh b&a
grave;y trong t&i
grave;nh huống giả định tấn công mạng v&a
grave;o các hệ thống quân sự.
Trong khi đó, Dan Hendrycks, một chuyên gia về an to&a
grave;n AI của "đội Đỏ" cho biết các plug-in có nguy cơ tạo ra một thế giới m&a
grave; con người “không thể kiểm soát được”.
“Sẽ ra sao nếu một chatbot có thể đăng thông tin cá nh&aci
rc;n người khác, truy cập t&a
grave;i khoản ngân h&a
grave;ng hoặc cử cảnh sát đến nơi ở của người d&u
grave;ng? Nh&i
grave;n chung, chúng ta cần các đánh giá an to&a
grave;n chặt chẽ hơn nữa trước khi cho phép AI sử dụng sức mạnh Internet”, Dan khẳng định.
Heather Frase, người l&a
grave;m việc tại Trung tâm Công nghệ An ninh v&a
grave; Mới nổi của Đại học Georgetown, người đã thử nghiệm GPT-4 về khả năng hỗ trợ tội phạm, cho biết rủi ro sẽ tiếp tục gia tăng khi có nhiều người sử dụng công nghệ n&a
grave;y.
Cô cho rằng nên tạo một sổ cái công khai để báo cáo các sự cố phát sinh từ các mô h&i
grave;nh ng&oci
rc;n ngữ lớn, tương tự như an ninh mạng hoặc hệ thống báo cáo gian lậ
n của người tiêu d&u
grave;ng.
Theo FT
Công ty Trung Quốc thay thế nhân viên bằng công nghệ AI
BlueFocus, công ty quảng cáo lớ
n của Trung Quốc, sẽ chấm dứt tuyển dụng “vô thời hạn” đối với nh&a
grave; thiết kế v&a
grave; copywriter b&eci
rc;n ngo&a
grave;i, thay bằng công cụ AI tương tự ChatGPT.
Amazon ra mắt công cụ giúp người d&u
grave;ng tự xây dựng chatbot AI
Ng&a
grave;y 13/4, bộ phận điện toán đám mây của Amazon thông báo ra mắt bộ công cụ cho phép khách h&a
grave;ng tự xây dựng chatbot tạo sinh h&i
grave;nh ảnh v&a
grave; văn bản riêng dựa trên trí tuệ nhân tạo.
Chuyên gia công nghệ Keysight ‘giải mã’ nghịch lý về AI
Theo ông Jonathan Wright - Giám đốc truyền bá công nghệ của Keysight, khái niệm máy móc thông minh đã dẫn đến những tiếp thị sai lệch, gây ra sự nhầm lẫn về sức mạnh thực sự của trí tuệ nhân tạo (AI), đặc biệt l&a
grave; trong lĩnh vực phần mềm.
Nguồn bài viết : TK đuôi