GPT-4 "đánh giá lâm sàng tốt hơn nhiều bác sỹ", xét nghiệm được cả bệnh hiếm gặp

P.W
11/4/2023 8:27Phản hồi: 40
GPT-4 "đánh giá lâm sàng tốt hơn nhiều bác sỹ", xét nghiệm được cả bệnh hiếm gặp
Vừa rồi, bác sĩ Isaac Kohane, người vừa là nhà nghiên cứu khoa học máy tính ở đại học Harvard, vừa nắm giữ tấm bằng y khoa đã cùng hai người đồng nghiệp thử sức mô hình ngôn ngữ GPT-4 mới nhất của OpenAI, với một mục đích duy nhất: Đánh giá khả năng vận hành của mô hình trí thông minh nhân tạo mới nhất này trong môi trường y khoa.

Kết quả nghiên cứu được ghi lại trong cuốn sách sắp được xuất bản: The AI Revolution in Medicine. Hai tác giả cuốn sách này là nhà báo Carey Goldberg và phó chủ tịch nghiên cứu của Microsoft, Peter Lee. Bác sỹ Kohane trong cuốn sách này nói rằng: “Tôi phải choáng váng thừa nhận, đấy là nó (trí thông minh nhân tạo) tốt hơn nhiều bác sỹ tôi từng chứng kiến.”

Cụ thể hơn theo ông Kohane, GPT-4 trả lời chính xác hơn 90% số câu hỏi bài thi cấp giấy phép hành nghề y khoa của Mỹ. Cả hai phiên bản mô hình ngôn ngữ trước đó là GPT-3 và 3.5 đều không tạo ra được điểm số ấn tượng như vậy. Mà thậm chí vài bác sỹ đã được cấp giấy phép hành nghề cũng không đạt được điểm số cao đến như vậy trong bài thi.

Tinhte_AI1.jpg

GPT-4 không chỉ là một công cụ tìm kiếm thông tin và làm bài thi tốt, nó còn là một công cụ dịch thuật tuyệt vời nữa. Trong cuốn sách của Goldberg và Lee có đoạn mô tả GPT-4 dịch thuật thông tin xuất viện cho một bệnh nhân nói tiếng Bồ Đào Nha, cũng như chắt lọc những thuật ngữ kỹ thuật phức tạp, trở thành những câu chữ mà một học sinh lớp 6 cũng có thể hiểu được.


Bên cạnh những ví dụ sinh động ấy, GPT-4 cũng có khả năng cung cấp cho các bác sỹ những gợi ý vô cùng hữu ích về cách ứng xử bên giường bệnh, đưa ra những mẹo về cách nói chuyện với bệnh nhân về tình trạng của họ thông qua thứ ngôn ngữ rõ ràng, thân thiện. Và thuật toán AI này còn có thể đọc những báo cáo và nghiên cứu rất dài, rồi tóm tắt chúng trong chớp mắt. Mô hình ngôn ngữ này thậm chí còn có khả năng giải thích lý do nó đưa ra cách xử lý một vấn đề cụ thể nữa.

Nếu hỏi lý do vì sao GPT-4 làm được tất cả những điều này, có thể mô hình ngôn ngữ sẽ trả lời là mọi thứ tạo ra trí thông minh của nó vẫn đang “được giới hạn bằng dữ liệu chứ chưa có sự hiểu biết và có chủ đích thật sự rõ ràng.” Kể cả khi bị giới hạn như vậy, bác sỹ Kohane vẫn cho rằng, GPT-4 có thể bắt chước, dù không hoàn hảo, cách bác sỹ chẩn đoán tình trạng bệnh lý của con người với tỷ lệ chính xác cao.

Tinhte_AI3.jpg

Isaac Kohane đã tiến hành thử nghiệm tư duy lâm sàng với GPT-4, dựa trên một ca bệnh thực tế liên quan tới một em bé sơ sinh mà ông đã điều trị vài năm trước. Chỉ mới cung cấp cho thuật toán AI vài chi tiết mấu chốt về bệnh nhi mà ông thu thập được khi thăm khám, cũng như vài dữ liệu siêu âm và nồng độ hormone, AI đã đoán trúng một bệnh lý hiếm gặp, 100 nghìn người chỉ có 1 ca, được gọi là tăng sản tuyến thượng thận bẩm sinh. AI làm được điều đó “giống hệt như tôi, với tất cả những năm tháng học tập và kinh nghiệm làm việc của tôi,” Kohane viết.

Thành ra, vị bác sỹ vừa ấn tượng, vừa có đôi chút hoảng sợ.

“Một mặt, tôi có một cuộc trò chuyện vô cùng phức tạp và sâu sắc với một quy trình tính toán, nhưng ở mặt khác, cùng lúc tâm trí tôi choáng váng khi nhận ra rằng hàng triệu gia đình sẽ sớm được tiếp cận với những chuyên môn y tế đầy ấn tượng, cùng lúc tôi vẫn không hiểu làm cách nào chúng tôi có thể đảm bảo hoặc chứng nhận rằng lời khuyên của máy móc là an toàn và hiệu quả.”

Ở một khía cạnh vô cùng công bằng, cuốn sách vừa khen ngợi khả năng của GPT-4, lại vừa đưa ra những ví dụ mô tả sự hoài nghi, bằng những sai lầm ngớ ngẩn của mô hình ngôn ngữ machine learning. Chúng bao gồm những lỗi văn thư rất đơn giản, ví dụ viết sai chỉ số BMI mà chính máy móc đã tính chính xác ngay trước đó, cho tới những lỗi toán học như giải bài Sudoku không chính xác, hay quên bình phương một số hạng trong một phương trình. Những sai lầm thường rất nhỏ, nhưng AI luôn có xu hướng khẳng định nó đúng, kể cả khi bị chất vấn kết quả. Không khó để tưởng tượng việc chỉ một con số sai có thể dẫn đến những sai sót nghiêm trọng trong kê đơn và chẩn đoán bệnh lý.

Tinhte_AI2.jpg

Quảng cáo



Ấy là chưa kể, GPT-4 hoàn toàn có khả năng “hóa điên”, cách nói khi AI tự bịa ra câu trả lời hoặc không làm việc theo yêu cầu con người.

GPT-4 thì thừa nhận rằng: “Tôi không có ý định lừa dối hay đánh lừa bất kỳ ai, nhưng đôi khi tôi mắc sai lầm hoặc đưa ra dự đoán dựa trên dữ liệu không đầy đủ hoặc không chính xác. Tôi cũng không có khả năng phán đoán lâm sàng cũng như đạo đức nghề nghiệp của một bác sỹ hay một y tá.”

Một giải pháp kiểm tra chéo tiềm năng mà các tác giả đề xuất trong cuốn sách này là mở một phiên chat mới với GPT-4, yêu cầu nó đọc lại và xác minh những kết quả xét nghiệm chính nó đã đưa ra theo cách trung lập nhất. Cách làm này đôi khi giúp máy móc phát hiện ra lỗi sai, dù GPT-4 tương đối ít khi thừa nhận nó sai. Một cách bắt lỗi khác là ra lệnh cho bot hiển thị kết quả làm việc của nó, để con người có thể xác minh kết quả.

Các tác giả cuốn The AI Revolution in Medicine viết, rõ ràng GPT-4 có khả năng giải phóng thời gian và nguồn nhân lực quý giá trong các bệnh viện, cho phép các bác sĩ lâm sàng có thêm nhiều thời gian hơn với các bệnh nhân thay vì ngồi đánh giá bệnh lý trước màn hình máy tính. Tuy nhiên, cùng lúc, họ cũng nói rằng “chúng ta phải buộc tưởng tượng một thế giới với máy móc càng lúc càng thông minh, rồi sẽ tới lúc máy vượt qua con người về trí tuệ. Khi đó chúng ta cần phải nghĩ thật kỹ về cách chúng ta muốn thế giới ấy vận hành.”

Theo Insider
40 bình luận
Chia sẻ

Xu hướng

Hồi đó ở kế bên trường y, bọn nó ra quán photo thu nhỏ tài liệu rất nhiều.
HQTRM
TÍCH CỰC
8 tháng
@My name’s Liêm Tùy môn thôi bác ơi, vấn đáp lâm sàng 1 đối 1 với giảng viên thì có khước mà lật, rồi cơ bản những môn quan trọng thi trắc nghiệm cũng ít thời gian lắm, lật không có kịp đâu nên bác yên tâm đi, đi photo tài liệu chắc là mấy môn đường lối, chính trị này kia là nhiều thôi.
@My name’s Liêm Đi trả lời 1 đấu 1 thì chấp copy ...
Đạt_be
ĐẠI BÀNG
8 tháng
@My name’s Liêm ngày xưa tôi đi học y, mỗi lần thi mấy môn kiểu đại cương dài thì xờ đc cái phao trúng bài đó xong lật lén lút, cảm giác khi đó nó tuyệt vời khủng khiếp luôn ạ
HQTRM
TÍCH CỰC
8 tháng
Y khoa chẩn đoán bệnh dựa vào triệu chứng cơ năng và triệu chứng thực thể + tiền căn, có những thứ đó rồi kết hợp kiến thức mà mình có để chẩn đoán bệnh. Có thể coi như bộ não bác sĩ là cái máy tính, đưa những dữ kiện đó vào rồi kết quả đưa ra là các chẩn đoán có thể xảy ra.
Hai cái tiền căn + triệu chứng cơ năng thì người nhà hoàn toàn nắm được chứ còn cái triệu chứng thực thể thì hơi căng, phải có kinh nghiệm mới biết được. AI chắc chắn hơn bác sĩ ở khoản lưu trữ dữ liệu, chỉ là có ai đó đưa dữ liệu đúng vào cho nó để nó chẩn đoán hay không thôi.
@HQTRM toàn lùa gà hút máu bác nhỉ,hic
HQTRM
TÍCH CỰC
8 tháng
@toilachi9 Không hẳn là lùa, nếu có một cái app để tổng hợp dữ liệu lâm sàng, bác nhập triệu chứng, xét nghiệm vào để nó đưa ra các chẩn đoán có khả năng thì tốt, hỗ trợ cho bác sĩ rất nhiều. Tự làm 100% thay luôn bác sĩ thì còn lâu lắm.
Máy móc sẽ thay con người du hành cả vũ trụ 😆 y tế đã là gì
@HueHue34 Nói thật là đi khám bệnh, mấy cha bác sĩ nhìn kết quả xét nghiệm rồi nói qua loa nhìn mà bắt ghét. Mình về tự coi, tự search còn có nhiều thông tin hơn. Kết quả xét nghiệm đều được máy nó highlight các chỉ số bất thường rồi, bs nhìn vào đó phán thôi chứ có làm khỉ gì đâu.
Rồi xong, nghề Prompt chính thức sẽ có mặt trong mọi ngành.
Bắt đầu thấy giống phim khoa học viễn tưởng rồi đoá.😂
iamcuong
TÍCH CỰC
8 tháng
Về ngành Y, mình thấy ứng dụng của Dữ liệu lớn rất hữu dụng.
Với 1 mẫu đủ lớn gồm tổng hợp dữ liệu về phân tích máu, nước tiểu, hình ảnh chiếu chụp, thì AI sẽ học được rất nhiều để đưa ra các chẩn đoán từ dữ liệu về quá khứ.
Mình đi khám ở BV 108, cũng chỉ qua 1 loạt các xét nghiệm máu + nước tiểu chuyên sâu, 1 bác sỹ cũng chỉ dựa vào các chỉ số để đưa ra dự đoán. Việc đó mang nặng yếu tố kinh nghiệm, rất "con người".
@iamcuong đồng ý luôn.
@iamcuong có cái nhược điểm là nếu bác sĩ ít kinh nghiệm hoặc kém xíu sẽ chọn quyết định của con AI mà không dám tự đưa ra quyết định của mình.
DKez
TÍCH CỰC
8 tháng
@iamcuong nhưng mỗi người cùng 1 bệnh thì cách chữa cũng có thể khác nhau do cá thể hóa khác nhau, tương lai AI chỉ hỗ trợ thôi (đưa ra 1 vài dự đoán bệnh để bác sĩ chọn lựa) chứ không thay thế được. Cơ bản do VN Y tế còn kém thôi
Đây chỉ là công bố 1 phần thông tin hay còn những thông tin khác hay & ko kém phần nguy hiểm.
lazy0338
ĐẠI BÀNG
8 tháng
Yêu quá
rất tuyệt vời, giờ bác sĩ chỉ cần lên phác đồ và luyện skill, còn thông tin bệnh nhiều quá sao mà nhớ hết nỗi
4.0 đã thế này
thì ver20 trong 10 năm nữa sẽ hoàn thiện
kêt quả xet ngịm sẽ đc nạp cho AI ,nó đối chiếu văn y ,kinh ngịm để đưa ra kêt luận ,phac đồ điều trị
ver30 sẽ có camera để nó tự soi ,tự nge bệnh nhân nói về trịu chứng
.
vai trò của con người sau này chỉ là QA ,QC ,thẩm định lại report của robot
giảm ap lực cho bac sĩ
giảm cac công đoạn tedious
dồn nhân lực cho cac ca khó : )
phim viễn tưởng sắp thành hiện thực
công cụ tốt thôi. Còn chưa chắc thay đc hoàn toàn bác sĩ.
chỉ là chuẩn đoán để dựa vào nó rồi BS chính tham khảo để ra quyết định thôi ,vẫn có BS chính qly để chịu trách nhiệm , nó như cái cpu truy cập vào lượng data khổng lồ rồi xuất kết quả thì BS nào theo cho nổi
DKez
TÍCH CỰC
8 tháng
@trandaubac nhưng nếu nó sai thì ai chịu trách nhiệm 😆)) nên bảo thay bsi là chưa thể, ít nhất trong vài chục năm tới
@DKez phải có BS giám sát va qly nó và BS đó chịu trách nhiệm đó
đang thử midjourney hết sức ngỡ ngàng khả năng của AI, tương lai sẽ giải phóng con người nhiều hơn, đúng như bài viết
"Remember, Chat GPT is Genisys." — Kyle Reese
Cười ra nước mắt
Dữ thần 😃
Khác với tin học chỉ có 2 giá trị 0 và 1, nếu ko phải là 0 thì dứt khoát là 1, trong y học nó có rất nhiều các giá trị giữa 0 và 1 mà chỉ có con người hành nghề lâu năm nhiều kinh nghiệm mới linh hoạt xử lí dc, 100 năm nữa máy móc cũng ko thay thế dc người bác sĩ đâu
Dữ liệu không mang tính đại diện

Xu hướng

Bài mới









  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2023 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: Số 70 Bà Huyện Thanh Quan, P. Võ Thị Sáu, Quận 3, TPHCM
  • Số điện thoại: 02822460095
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019