peer review

Một nhóm các nhà khoa học do một nhà thiên văn học ở Đại học bang Michigan (MSU) đứng đầu đã tìm ra một qui trình mới để đánh giá các dự án nghiên cứu khoa học được đề xuất mang lại hiệu quả tương đương - nếu không muốn nói là hơn - so với phương pháp bình duyệt truyền thống.

Thông thường, khi một nhà nghiên cứu đưa ra một đề xuất, đơn vị tài trợ nghiên cứu sẽ đề nghị một số nhà nghiên cứu trong lĩnh vực đó để đưa ra đánh giá cho việc tài trợ. Quá trình này đôi khi được cho là cồng kềnh và chậm chạp - không còn là khoa học chính xác.

Theo giáo sư Wolfgang Kerzendorf ở MSU, thì "cũng như mọi nỗ lực của con người, việc này có sai sót".

Theo công bố chi tiết trên Nature Astronomy, Kerzendorf và các đồng nghiệp đã thử một hệ thống mới trong đó phân phối khối lượng công việc của các đề xuất về các các dự án cần đánh giá giữa những người đề xuất, được gọi là phương pháp "bình duyệt phân tán".

Tuy nhiên, nhóm nghiên cứu đã tối ưu hóa phương pháp bằng cách đưa vào thêm hai yếu tố mới. Đó là sử dụng học máy (machine learning) để kết hợp chính xác các nhà đánh giá với các đề xuất, và đưa thêm cơ chế phản hồi vào đánh giá.

Về cơ bản, qui trình này đưa vào 3 tính năng để cải thiện chất lượng của các bình duyệt nghiên cứu.

Đầu tiên, khi một nhà khoa học đưa ra một đề xuất để đánh giá, anh ta/cô ta sẽ được yêu cầu xem xét một số bài báo khoa học khác của cùng lĩnh vực. Việc này sẽ giúp lọc và giảm bớt số lượng đề xuất cần xem xét (giả sử một nghiên cứu được đề xuất trùng với một nghiên cứu tương đương đã công bố thì việc đánh giá cũng như thực hiện nó đều sẽ mất thời gian vô ích).

"Nếu bạn giảm được số lượng đánh giá mà mỗi người cần làm, họ có thể đỡ mất thời gian hơn cho mỗi đánh giá," Kerzendorf nói.

Thứ hai, bằng cách sử dụng học máy, các nhà tài trợ có thể kết hợp chính xác nhà đánh giá với những đề xuất thuộc đúng lĩnh vực mà họ là chuyên gia. Qui trình này có thể loại bỏ bớt sự thiên vị thường có ở con người, qua đó đưa ra đánh giá chính xác hơn.

"Về cơ bản, chúng tôi xem xét các bài báo mà các độc giả tiềm năng đã viết và sau đó đề nghị với họ rằng họ có thể có khả năng đánh giá," Kerzendorf nói. "Thay vì để một nhà phê bình tự nói về chuyên môn của họ thì máy tính sẽ làm việc đó."

Và thứ ba, nhóm nghiên cứu giới thiệu một hệ thống phản hồi mà trong đó chính người đưa ra đề xuất có thể đánh giá xem phản hồi mà họ nhận được có hữu ích hay không. Cuối cùng, việc này giúp cho cộng đồng khoa học có thể đánh giá cao những nhà khoa học luôn đưa ra những phản biện có tính xây dựng.

Để thử nghiệm, Kerzendorf và nhóm của ông đã xem xét 172 đề xuất về việc sử dụng các kính thiên văn của ESO - một đài quan sát mặt đất đặt tại Đức với sự tham gia của 16 quốc gia.

Các đề xuất được xem xét theo cả phương pháp truyền thống cũng như theo phương pháp bình duyệt phân tán. Kết quả ra sao? Từ quan điểm thống kê, không có sự khác biệt rõ ràng để phân định được.

Tuy nhiên, Kerzendorf cho biết đó là một thử nghiệm về cách tiếp cận mới trong việc bình duyệt nghiên cứu - một điều có thể tạo nên khác biệt trong thế giới khoa học.

"Dù chúng ta luôn suy nghĩ rất nghiêm túc về khoa học, đôi khi chúng ta không dành thời gian suy nghĩ về việc cải thiện quá trình phân bổ nguồn lực trong khoa học," ông nói. "Đây là một nỗ lực để làm điều đó."

Bryan
Theo Science Daily