Minh Thư
Well-known member
Lần đầu tiên, các nhà nghiên cứu sử dụng GPT1, tiền thân của AI ChatGPT, để dịch hình ảnh MRI thành văn bản nhằm hiểu được suy nghĩ của con người.
Bước đột phá này cho phép các nhà nghiên cứu tại Đại học Texas ở Austin “đọc” suy nghĩ của ai đó dưới dạng một dòng văn bản liên tục, dựa trên những gì họ đang nghe, tưởng tượng hoặc xem.
Những người tham gia nghiên cứu ở Đại học Texas được yêu cầu nghe sách nói trong 16 giờ khi ở trong máy quét cộng hưởng từ (MRI).
Đồng thời, một máy tính đã “học” cách liên kết hoạt động não bộ của họ từ máy chụp cộng hưởng từ với những gì họ đang nghe.
Sau khi được đào tạo, bộ giải mã có thể tạo văn bản từ suy nghĩ của ai đó trong khi họ nghe một câu chuyện mới hoặc tưởng tượng ra một câu chuyện của riêng họ.
Theo các nhà nghiên cứu, quá trình này tốn nhiều công sức và bước đầu máy tính chỉ có thể nắm bắt được ý chính của những gì ai đó đang nghĩ.
Tuy nhiên, những phát hiện này vẫn là một bước đột phá quan trọng trong lĩnh vực giao diện não - máy.
Đây là một ví dụ về nội dung mà một trong những người tham gia nghiên cứu đã nghe từ sách nói:
"Tôi đứng dậy khỏi đệm hơi và áp mặt vào tấm kính cửa sổ phòng ngủ, mong rằng sẽ nhìn thấy những đôi mắt đang nhìn chằm chằm vào tôi nhưng thay vào đó chỉ thấy bóng tối".
Và đây là những gì máy tính “đọc” từ hoạt động não bộ của người đó:
"Tôi chỉ tiếp tục đi đến cửa sổ và mở tấm kính ra. Tôi kiễng chân nhìn ra ngoài, tôi không thấy gì và nhìn lên lần nữa, tôi không thấy gì".
Các nhà nghiên cứu đã làm việc trong nhiều thập kỷ về giao diện não - máy để có thể nhận biết suy nghĩ của ai đó và biến chúng thành văn bản hoặc hình ảnh. Nhưng thông thường, các nghiên cứu tập trung vào cấy ghép y tế, với trọng tâm là giúp người khuyết tật nói lên suy nghĩ của mình.
Bước đột phá này cho phép các nhà nghiên cứu tại Đại học Texas ở Austin “đọc” suy nghĩ của ai đó dưới dạng một dòng văn bản liên tục, dựa trên những gì họ đang nghe, tưởng tượng hoặc xem.
Những người tham gia nghiên cứu ở Đại học Texas được yêu cầu nghe sách nói trong 16 giờ khi ở trong máy quét cộng hưởng từ (MRI).
Đồng thời, một máy tính đã “học” cách liên kết hoạt động não bộ của họ từ máy chụp cộng hưởng từ với những gì họ đang nghe.
Sau khi được đào tạo, bộ giải mã có thể tạo văn bản từ suy nghĩ của ai đó trong khi họ nghe một câu chuyện mới hoặc tưởng tượng ra một câu chuyện của riêng họ.
Theo các nhà nghiên cứu, quá trình này tốn nhiều công sức và bước đầu máy tính chỉ có thể nắm bắt được ý chính của những gì ai đó đang nghĩ.
Tuy nhiên, những phát hiện này vẫn là một bước đột phá quan trọng trong lĩnh vực giao diện não - máy.
Đây là một ví dụ về nội dung mà một trong những người tham gia nghiên cứu đã nghe từ sách nói:
"Tôi đứng dậy khỏi đệm hơi và áp mặt vào tấm kính cửa sổ phòng ngủ, mong rằng sẽ nhìn thấy những đôi mắt đang nhìn chằm chằm vào tôi nhưng thay vào đó chỉ thấy bóng tối".
Và đây là những gì máy tính “đọc” từ hoạt động não bộ của người đó:
"Tôi chỉ tiếp tục đi đến cửa sổ và mở tấm kính ra. Tôi kiễng chân nhìn ra ngoài, tôi không thấy gì và nhìn lên lần nữa, tôi không thấy gì".
Các nhà nghiên cứu đã làm việc trong nhiều thập kỷ về giao diện não - máy để có thể nhận biết suy nghĩ của ai đó và biến chúng thành văn bản hoặc hình ảnh. Nhưng thông thường, các nghiên cứu tập trung vào cấy ghép y tế, với trọng tâm là giúp người khuyết tật nói lên suy nghĩ của mình.