Khám phá khối tài sản 100.000 USD từ ‘Cha đẻ’ ChatGPT dành cho giải pháp kiểm soát AI

Chú thích ảnh


OpenAI tặng 100.000 USD cho những người tìm ra mô hình quản lý AI không thiên vị

OpenAI, công ty lớn về trí tuệ nhân tạo, đã tặng 100.000 USD cho những người có thể tìm ra mô hình quản lý AI để giảm thiểu sự thiên vị và định kiến trong các câu trả lời của AI. Các nhà phê bình cho rằng các hệ thống AI như ChatGPT có sự thiên vị nhất định trong quá trình định hình quan điểm do các yếu tố thông tin đầu vào được sử dụng. Một ví dụ mới nhất về việc sử dụng sai mục đích của AI là bức ảnh “vụ nổ” ở Lầu Năm Góc lan truyền ngày 22/5. Bức ảnh chụp khói đen nghi ngút ở mộc góc Lầu Năm Góc đã bị phát hiện là một sản phẩm của AI. Tuy nhiên, chỉ trong thời gian ngắn xuất hiện, bức ảnh cũng đã kịp khiến cho thị trường chứng khoán hỗn loạn. Chỉ một vài công cụ tìm kiếm như Google của Alphabet và Bing của Microsoft đã đưa ra thông tin không chính xác, nhưng lại khiến người sử dụng tin tưởng. Ngoài ra, các trình tạo hình ảnh AI và các sản phẩm của chúng có thể đe dọa quyền riêng tư và an ninh. Các chuyên gia lo lắng về khả năng tác động của AI đến đời sống con người và xã hội. Tuy AI có tiềm năng sáng tạo và năng suất không thể phủ nhận, việc áp dụng nó cần được quản lý cẩn thận để tránh gây hậu quả không mong muốn.

Biểu tượng công cụ ChatGPT của công ty OpenAI. Ảnh: AFP/TTXVN

Khoản thưởng 100.000 USD sẽ được trao cho những người có thể tìm ra được mô hình quản lý AI để AI không đưa ra những câu trả lời mang tính định kiến hoặc thiên vị.

Các nhà phê bình cho rằng các hệ thống AI như ChatGPT có sự thiên vị nhất định do các yếu tố thông tin đầu vào được sử dụng để định hình quan điểm. Người dùng có thể tìm được các ví dụ về phân biệt chủng tộc hoặc phân biệt giới tính trong các sản phẩm do AI làm ra. Mối lo ngại này thậm chí còn gia tăng khi AI được tích hợp vào các công cụ tìm kiếm như Google của Alphabet và Bing của Microsoft, từ đó có thể tạo ra thông tin không chính xác nhưng lại khiến người sử dụng tin một cách thuyết phục.

ChatGPT đã trở nên phổ biến sau khi ra mắt vào tháng 11/2022 và trên đường trở thành ứng dụng phát triển nhanh nhất từ ​​trước đến nay. Thật không may, sự phổ biến lan truyền đi đôi với những lo ngại chính đáng về khả năng ảnh hưởng tới xã hội.

Những trình tạo hình ảnh AI có thể tạo ra những “bức ảnh” ngày càng khó phân biệt với thực tế và trình sao chép giọng nói có thể bắt chước giọng nói của các nghệ sĩ và nhân vật nổi tiếng một cách dễ dàng. Chẳng bao lâu nữa, các trình tạo video sẽ phát triển, khiến cho các sản phẩm càng trở nên đáng lo ngại hơn.

Mặc dù có tiềm năng sáng tạo và năng suất không thể phủ nhận, AI nói chung có thể đe dọa sinh kế của vô số người sáng tạo nội dung đồng thời đặt ra những rủi ro mới về bảo mật và quyền riêng tư cũng như làm gia tăng thông tin sai lệch.

Một ví dụ mới nhất về việc sử dụng sai mục đích của AI là bức ảnh “vụ nổ” ở Lầu Năm Góc lan truyền ngày 22/5. Bức ảnh chụp khói đen nghi ngút ở mộc góc Lầu Năm Góc đã bị phát hiện là một sản phẩm của AI. Tuy nhiên, chỉ trong thời gian ngắn xuất hiện, bức ảnh cũng đã kịp khiến cho thị trường chứng khoán hỗn loạn. Hơn 10h sáng 22/5 theo giờ New York, khi bức ảnh giả mạo trên được lan truyền, cổ phiếu S&P 500 đã giảm khoảng 0,3% xuống mức thấp nhất trong phiên.

KẾT LUẬN

Công ty OpenAI sẽ trao khoản thưởng 100.000 USD cho những người tìm ra được mô hình quản lý AI để tránh những câu trả lời mang tính định kiến hoặc thiên vị. Điều này được đưa ra bởi lo ngại về sự thiên vị của các hệ thống AI như ChatGPT do các yếu tố thông tin đầu vào được sử dụng để định hình quan điểm. Các sản phẩm do AI tạo ra có thể phân biệt chủng tộc hoặc phân biệt giới tính, gây ra thông tin không chính xác và khiến người dùng tin tưởng sai lầm. Mặc dù có tiềm năng sáng tạo và năng suất, sự phổ biến của AI cũng đặt ra những rủi ro mới về bảo mật và quyền riêng tư cũng như tạo ra thông tin sai lệch. Một ví dụ mới nhất về việc sử dụng sai mục đích của AI là bức ảnh giả mạo vụ nổ ở Lầu Năm Góc làm thị trường chứng khoán rối loạn.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *