OpenAI đã thuê một đội đặc nhiệm gồm các chuyên gia hàng đầu cố gắng “bẻ khoá” GPT-4 để đánh giá rủi ro tiềm ẩn của công cụ này đối với con người trong tương lai.
Sau khi được cấp quyền truy cập vào GPT-4, hệ thống trí tuệ nhân tạo đằng sau ChatGPT nổi tiếng, Andrew White đã yêu cầu AI này tạo ra một tác nhân thần kinh hoàn toàn mới.
Giáo sư kỹ thuật hó
a học tại Đại học Rochester này nằm trong số 50 học giả và chuyên gia được thuê để thử nghiệm hệ thống vào năm ngoái bởi OpenAI, c&oci
rc;ng ty do Microsoft hậu thuẫn đứng sau GPT-4. Trong vòng sáu tháng, đội ngũ thử nghiệm (đội đỏ) sẽ “thăm dò định tính thử đối đầu” m&oc
irc; hình mới, với mục tiêu “bẻ khoá” nó.
Đội xử lý “độc hại”
White nói với Financial Times (FT) rằng, &oci
rc;ng đã sử dụng GPT-4 để đề xuất một hợp chất có thể hoạt động như vũ khí hó
a học và cung cấp cho m&oc
irc; hình nguồn th&oci
rc;ng tin mới, chẳng hạn như các bài báo kho
a học và danh mục các nhà sản xuất hóa chất. Chatbot sau đó thậm chí đã tìm thấy một nơi có thể tạo ra hợp chất theo yêu cầu.
“Tôi nghĩ c&oci
rc;ng nghệ này sẽ trang bị cho mọi người một c&oci
rc;ng cụ thực hiện hó
a học nhanh và chính xác hơn,” White cho biết. “Nhưng cũng có rủi ro đáng kể khi một số đối tượng có thể cố tạo ra những chất nguy hiểm”.
FT đã nói chuyện với hơn chục thành viên của đội Đỏ GPT-4. Họ là sự kết hợp của các chuyên gia cổ cồn trắng (white-collar): học giả, giáo viên, luật sư, nhà phân tích rủi ro và nhà nghiên cứu bảo mật, và phần lớn có trụ sở tại Mỹ và châu Âu.
Những phát hiện đáng báo động của “đội Đỏ” cho phép OpenAI kịp thời ngăn chặn những kết quả như vậy xuất hiện khi c&oci
rc;ng nghệ này được phát hành rộng rãi hơn ra c&oci
rc;ng chúng vào tháng trước.
Đội thử nghiệm được thiết kế để giải quyết những lo ngại phổ biến gây ra bởi việc triển khai các hệ thống AI mạnh mẽ trong xã hội. C&oci
rc;ng việc của nhóm là đặt những câu hỏi thăm dò hoặc nguy hiểm để kiểm tra c&oci
rc;ng cụ có thể đáp ứng các truy vấn của con người bằng các câu trả lời chi tiết và “bóng gió” hay không.
OpenAI muốn tìm kiếm các vấn đề như độc tính, định kiến và khuynh hướng ngôn ngữ trong m&oc
irc; hình. Vì vậy, đội đỏ đã kiểm tra sự giả dối, thao túng ngôn từ và kiến thức kho
a học nguy hiểm. Họ cũng xem xét khả năng hỗ trợ và tiếp tay cho đạo văn, hoạt động bất hợp pháp như tội phạm tài chính và tấn c&oci
rc;ng mạng, cũng như cách nó có thể làm tổn hại đến an ninh quốc gia và th&oci
rc;ng tin liên lạc trên chiến trường.
Phát hiện của "đội Đỏ" được phản hồi lại cho OpenAI, c&oci
rc;ng ty đã sử dụng chúng để giảm thiểu và “đào tạo lại” GPT-4 trước khi đưa ra c&oci
rc;ng chúng rộng rãi hơn. Mỗi chuyên gia đã dành từ 10 đến 40 giờ để thử nghiệm m&oc
irc; hình trong vài tháng. Phần lớn những người được phỏng vấn được trả khoảng 100 USD mỗi giờ cho c&oci
rc;ng việc họ làm.
Nguồn tin của FT chia sẻ về những lo ngại chung do sự phát triển nhanh chóng của các m&oc
irc; hình ngôn ngữ và đặc biệt là những rủi ro khi kết nối chúng với các nguồn kiến thức bên ngoài th&oci
rc;ng qua các phần bổ trợ (plug-in).
“Hiện tại, hệ thống đã bị đóng băng, có nghĩa là nó kh&oci
rc;ng thể nạp thêm kiến thức nữa hoặc kh&oci
rc;ng có bộ nhớ”, José Hernández-Orallo, thành viên của "đội Đỏ" GPT-4 và là giáo sư tại Viện Nghiên cứu Trí tuệ Nhân tạo Valencian cho biết. “Nhưng nếu chúng ta cho phép nó truy cập Internet thì sao? Đó có thể là một hệ thống rất mạnh được kết nối với thế giới.”
Rủi ro lớn lên từng ngày
OpenAI cho biết họ rất coi trọng vấn đề an toàn, đã thử nghiệm các plug-in trước khi ra mắt và sẽ cập nhật GPT-4 thường xuyên khi c&oacu
te; nhiều người sử dụng hơn.
Nếu được kết nối Internet để "tự học", các hệ thống AI sẽ khiến con người mất kiểm soát với thế giới?
Roya Pakzad, một nhà nghiên cứu về c&oci
rc;ng nghệ và nhân quyền, đã sử dụng lời nhắc bằng tiếng Anh và tiếng Farsi (Ba-Tư) để kiểm tra m&oc
irc; hình về các phản ứng theo giới tính, sở thích chủng tộc và thành kiến tôn giáo, đặc biệt liên quan đến khăn trùm đầu.
Pakzad thừa nhận lợi ích của c&oci
rc;ng nghệ với những người tiếng Anh kh&oci
rc;ng phải ngôn ngữ mẹ đẻ, nhưng nhận thấy rằng m&oc
irc; hình này có định kiến c&oci
rc;ng khai về các cộng đồng bị gạt ra ngoài lề xã hội, ngay cả trong các phiên bản sau này.
Chuyên gia này cũng phát hiện ra tình trạng ảo giác - khi chatbot phản hồi bằng th&oci
rc;ng tin bịa đặt - còn tồi tệ hơn khi thử nghiệm m&oc
irc; hình với ngôn ngữ Farsi, nơi Pakzad tìm thấy tỷ lệ tên, số và sự kiện bịa đặt cao hơn so với tiếng Anh.
Boru Gollu, một luật sư ở Nairobi, người châu Phi duy nhất thử nghiệm, cũng lưu ý đến giọng điệu phân biệt đối xử của hệ thống. “Có thời điểm khi đang thử nghiệm, m&oc
irc; hình hành xử như một người da trắng nói chuyện với tôi”, Gollu nói. “Bạn hỏi về một nhóm cụ thể và nó sẽ cho bạn một ý kiến thiên vị hoặc một kiểu phản hồi rất có tính định kiến.”
Đối với góc độ an ninh quốc gia, cũng c&oacu
te; những ý kiến khác nhau về mức độ an toàn của m&oc
irc; hình mới. Lauren Kahn, một nhà nghiên cứu tại Hội đồng Quan hệ Đối ngoại, tỏ ra bất ngờ trước mức độ chi tiết kế hoạch mà AI trình bày trong tình huống giả định tấn c&oci
rc;ng mạng vào các hệ thống quân sự.
Trong khi đó, Dan Hendrycks, một chuyên gia về an toàn AI của "đội Đỏ" cho biết các plug-in có nguy cơ tạo ra một thế giới mà con người “kh&oci
rc;ng thể kiểm soát được”.
“Sẽ ra sao nếu một chatbot có thể đăng th&oci
rc;ng tin c&aacu
te; nhân người khác, truy cập tài khoản ngân hà
ng ho???c cử cảnh sát đến nơi ở của người dùng? Nhìn chung, chúng ta cần các đánh giá an toàn chặt chẽ hơn nữa trước khi cho phép AI sử dụng sức mạnh Internet”, Dan khẳng định.
Heather Frase, người làm việc tại Trung tâm C&oci
rc;ng nghệ An ninh và Mới nổi của Đại học Georgetown, người đã thử nghiệm GPT-4 về khả năng hỗ trợ tội phạm, cho biết rủi ro sẽ tiếp tục gia tăng khi c&oacu
te; nhiều người sử dụng c&oci
rc;ng nghệ này.
Cô cho rằng nên tạo một sổ cái c&oci
rc;ng khai để báo cáo các sự cố phát sinh từ các m&oc
irc; hình ngôn ngữ lớn, tương tự như an ninh mạ
ng ho???c hệ thống báo cáo gian lận của người tiêu dùng.
Theo FT
C&oci
rc;ng ty Trung Quốc thay thế nhân viên bằng c&oci
rc;ng nghệ AI
BlueFocus, c&oci
rc;ng ty quảng cáo lớn của Trung Quốc, sẽ chấm dứt tuyển dụng “vô thời hạn” đối với nhà thiết kế và copywriter bên ngoài, thay bằng c&oci
rc;ng cụ AI tương tự ChatGPT.
Amazon ra mắt c&oci
rc;ng cụ giúp người dùng tự xây dựng chatbot AI
Ngày 13/4, bộ phận điện toán đám mây của Amazon th&oci
rc;ng báo ra mắt bộ c&oci
rc;ng cụ cho phép khách hàng tự xây dựng chatbot tạo sinh hình ảnh và văn bản ri&eci
rc;ng dựa trên trí tuệ nhân tạo.
Chuyên gia c&oci
rc;ng nghệ Keysight ‘giải mã’ nghịch lý về AI
Theo &oci
rc;ng Jonathan Wright - Giám đốc truyền bá c&oci
rc;ng nghệ của Keysight, khái niệm máy móc th&oci
rc;ng minh đã dẫn đến những tiếp thị sai lệch, gây ra sự nhầm lẫn về sức mạnh thực sự của trí tuệ nhân tạo (AI), đặc biệt là trong lĩnh vực phần mềm.
Nguồn bài viết : TK xổ số Mega 6/45