Câu chuyện của tương lai: Robot cũng có thể... đi kiện và bị kiện

Đây là ý tưởng được đề xuất trong một bản báo cáo trong năm 2017 của Liên minh châu Âu (EU), theo đó, những robot "có tư cách pháp nhân" sẽ có những quyền và nghĩa vụ giống như con người.

Được đề xuất trong một báo cáo năm 2017 của EU, hình thức pháp nhân này của robot sẽ không cung cấp cho robot một số "quyền và nghĩa vụ" giống như con người, chẳng hạn robot sẽ không kết hôn, không mua nhà, không nuôi con..., nhưng robot sẽ có thể đi kiện và bị kiện, với tư cách pháp nhân giống như một công ty vậy.
 
Những người ủng hộ ý tưởng này cho rằng, điều này là chuyện bình thường và cần tạo ra "một cơ cấu pháp lý khả thi" trong thời đại công nghệ phát triển như vũ bão hiện nay, bởi vì các thực thể robot hiện nay ngày càng thông minh hơn, và chúng có thể hòa nhập hơn vào cuộc sống hàng ngày của con người.
 
Khi đó, nếu một robot (đã được cấp quyền như con người) gây thương tích hoặc làm gì đó sai trái, nó sẽ phải chịu trách nhiệm. Tuy nhiên cụ thể là ai sẽ phải chịu trách nhiệm? Theo một số nhà lập pháp châu Âu, họ cho rằng cách tốt nhất để giải quyết câu hỏi này là "gán cho robot một định danh điện tử", tương tự như hình thức của một tư cách pháp nhân vậy.
Theo các chuyên gia, nhất thiết phải có được những đạo luật nhất định, có liên quan đến robot, nhằm giải quyết triệt để những gì mà robot gây ra cho con người. Ảnh chỉ để minh họa.
Nhưng không phải ai cũng đồng ý với đề xuất mới mẻ này. Có ít nhất 156 chuyên gia về trí tuệ nhân tạo đã cảnh báo Ủy ban châu Âu rằng, đề xuất này thực sự tồi tệ khi được xem xét từ quan điểm của luật pháp và vấn đề đạo đức.
 
Theo những người phản đối, động thái này đơn giản chỉ là "chuyển quả bóng trách nhiệm từ nhà sản xuất robot sang chính con robot" và điều đó chẳng giải quyết được gì. Chẳng hạn như trong trường hợp người bác sỹ điều khiển con robot không chuẩn xác, đã dùng quá nhiều lực lên người bệnh nhân, khiến tay bệnh nhân bị gãy thì ai phải chịu trách nhiệm đây: Con robot hay vị bác sỹ kia?.
 
"Đề xuất này của Nghị viện châu Âu sẽ khiến các nhà sản xuất robot đùn đẩy trách nhiệm của mình", Noel Sharkey - giáo sư danh dự về lĩnh vực trí tuệ nhân tạo và robot, đã nói.
 
Theo trang tin The Verge, có vẻ như các tác giả của bản báo cáo trên đã xem xét đến khả năng này. Cụ thể là các tác giả báo cáo đã gợi ý EU nên thiết lập một "nền tảng luật pháp giữa con người và robot", đó là "mối liên hệ nhân quả giữa hành vi gây hại của robot và những thiệt hại do nó gây ra", để trên cơ sở đó, nhà sản xuất robot sẽ thực hiện việc bồi thường.
 
Điều này cũng có nghĩa là, các nạn nhân của "tội phạm robot" sẽ được xử lý một cách công bằng, dù robot kia có hoạt động ra sao, bởi nhà sản xuất cũng không thể trả lời được rõ ràng, và chắc chắn là họ sẽ trả lời theo kiểu "họ không bao giờ định để robot hành động theo cách đó". 
 
Khi robot trở nên phức tạp hơn, quyền của robot cũng sẽ phức tạp hơn, các chuyên gia nhận định. Ngoài ra, còn có những đột biến khác, ví như hành vi của máy móc và các sản phẩm thuộc về máy móc đã gây ra tai nạn mà không thuộc về nhà sản xuất - người đã tạo ra robot. 
 
Robot gây tai nạn cho con người thực sự đã có. Chiếc xe tự lái đã gây tai nạn làm tử vong người đi bộ hồi tháng 3 vừa rồi chẳng hạn. Nó cũng là "một robot" - nhưng đây là chiếc xe hơi tự lái, và trong trường hợp này, Uber sẽ phải chịu trách nhiệm.
 
Một luật sư đã đặt câu hỏi, rằng: Nếu một robot có tư cách pháp nhân tạo ra một thiết bị và được đăng ký bản quyền, vậy thì ai sẽ là chủ sở hữu bằng sáng chế đó - robot hay người tạo ra nó? Ai sẽ hưởng lợi nhuận từ sáng chế đó? Và nếu robot được bán cho một người khác, liệu người đó có quyền kiểm soát sở hữu trí tuệ đó không? Và để trả lời thấu đáo cho những câu hỏi này, nhất thiết chúng ta phải có Luật - một bộ luật có liên quan đến "tư cách pháp nhân" của robot.
 
Và khi chúng ta tạo ra được robot có nhận thức ngang ngửa với series phim Westworld nổi tiếng, chúng ta sẽ cần có một cuộc trò chuyện hoàn toàn khác về cách xử lý các quyền của robot. Nhưng có lẽ chúng ta cũng chưa cần phải quá vội vã, vì ngày ấy vẫn còn xa vời lắm...