Duy Minh
Well-known member
OpenAI, công ty khởi nghiệp tạo ra phần mềm tương tác trí tuệ nhân tạo (AI) ChatGPT, ngày 25/5 thông báo họ sẽ trao 10 phần thưởng giá trị bằng nhau trích từ quỹ 1 triệu USD cho các thử nghiệm nhằm xác định cách thức quản lý phần mềm AI.
Khoản thưởng 100.000 USD sẽ được trao cho những người có thể tìm ra được mô hình quản lý AI để AI không đưa ra những câu trả lời mang tính định kiến hoặc thiên vị.
Các nhà phê bình cho rằng các hệ thống AI như ChatGPT có sự thiên vị nhất định do các yếu tố thông tin đầu vào được sử dụng để định hình quan điểm. Người dùng có thể tìm được các ví dụ về phân biệt chủng tộc hoặc phân biệt giới tính trong các sản phẩm do AI làm ra. Mối lo ngại này thậm chí còn gia tăng khi AI được tích hợp vào các công cụ tìm kiếm như Google của Alphabet và Bing của Microsoft, từ đó có thể tạo ra thông tin không chính xác nhưng lại khiến người sử dụng tin một cách thuyết phục.
ChatGPT đã trở nên phổ biến sau khi ra mắt vào tháng 11/2022 và trên đường trở thành ứng dụng phát triển nhanh nhất từ trước đến nay. Thật không may, sự phổ biến lan truyền đi đôi với những lo ngại chính đáng về khả năng ảnh hưởng tới xã hội.
Những trình tạo hình ảnh AI có thể tạo ra những “bức ảnh” ngày càng khó phân biệt với thực tế và trình sao chép giọng nói có thể bắt chước giọng nói của các nghệ sĩ và nhân vật nổi tiếng một cách dễ dàng. Chẳng bao lâu nữa, các trình tạo video sẽ phát triển, khiến cho các sản phẩm càng trở nên đáng lo ngại hơn.
Mặc dù có tiềm năng sáng tạo và năng suất không thể phủ nhận, AI nói chung có thể đe dọa sinh kế của vô số người sáng tạo nội dung đồng thời đặt ra những rủi ro mới về bảo mật và quyền riêng tư cũng như làm gia tăng thông tin sai lệch.
Một ví dụ mới nhất về việc sử dụng sai mục đích của AI là bức ảnh “vụ nổ” ở Lầu Năm Góc lan truyền ngày 22/5. Bức ảnh chụp khói đen nghi ngút ở mộc góc Lầu Năm Góc đã bị phát hiện là một sản phẩm của AI. Tuy nhiên, chỉ trong thời gian ngắn xuất hiện, bức ảnh cũng đã kịp khiến cho thị trường chứng khoán hỗn loạn. Hơn 10h sáng 22/5 theo giờ New York, khi bức ảnh giả mạo trên được lan truyền, cổ phiếu S&P 500 đã giảm khoảng 0,3% xuống mức thấp nhất trong phiên.
Khoản thưởng 100.000 USD sẽ được trao cho những người có thể tìm ra được mô hình quản lý AI để AI không đưa ra những câu trả lời mang tính định kiến hoặc thiên vị.
Các nhà phê bình cho rằng các hệ thống AI như ChatGPT có sự thiên vị nhất định do các yếu tố thông tin đầu vào được sử dụng để định hình quan điểm. Người dùng có thể tìm được các ví dụ về phân biệt chủng tộc hoặc phân biệt giới tính trong các sản phẩm do AI làm ra. Mối lo ngại này thậm chí còn gia tăng khi AI được tích hợp vào các công cụ tìm kiếm như Google của Alphabet và Bing của Microsoft, từ đó có thể tạo ra thông tin không chính xác nhưng lại khiến người sử dụng tin một cách thuyết phục.
ChatGPT đã trở nên phổ biến sau khi ra mắt vào tháng 11/2022 và trên đường trở thành ứng dụng phát triển nhanh nhất từ trước đến nay. Thật không may, sự phổ biến lan truyền đi đôi với những lo ngại chính đáng về khả năng ảnh hưởng tới xã hội.
Những trình tạo hình ảnh AI có thể tạo ra những “bức ảnh” ngày càng khó phân biệt với thực tế và trình sao chép giọng nói có thể bắt chước giọng nói của các nghệ sĩ và nhân vật nổi tiếng một cách dễ dàng. Chẳng bao lâu nữa, các trình tạo video sẽ phát triển, khiến cho các sản phẩm càng trở nên đáng lo ngại hơn.
Mặc dù có tiềm năng sáng tạo và năng suất không thể phủ nhận, AI nói chung có thể đe dọa sinh kế của vô số người sáng tạo nội dung đồng thời đặt ra những rủi ro mới về bảo mật và quyền riêng tư cũng như làm gia tăng thông tin sai lệch.
Một ví dụ mới nhất về việc sử dụng sai mục đích của AI là bức ảnh “vụ nổ” ở Lầu Năm Góc lan truyền ngày 22/5. Bức ảnh chụp khói đen nghi ngút ở mộc góc Lầu Năm Góc đã bị phát hiện là một sản phẩm của AI. Tuy nhiên, chỉ trong thời gian ngắn xuất hiện, bức ảnh cũng đã kịp khiến cho thị trường chứng khoán hỗn loạn. Hơn 10h sáng 22/5 theo giờ New York, khi bức ảnh giả mạo trên được lan truyền, cổ phiếu S&P 500 đã giảm khoảng 0,3% xuống mức thấp nhất trong phiên.