Để đổi lấy những khám phá tương ứng của mình, các nhà phát minh nắm giữ quyền sáng chế cũng có quyền ngăn cản người khác sử dụng (hoặc vi phạm) những phát minh đó. Theo luật sáng chế của Hoa Kỳ, người nào “tạo ra, sử dụng, đề xuất bán hoặc bán bất kỳ phát minh nào đã được cấp bằng sáng chế ở Hoa Kỳ hoặc nhập khẩu bất kỳ phát minh nào đã được cấp bằng sáng chế vào Hoa Kỳ trong thời hạn được cấp bằng sáng chế” sẽ vi phạm yêu cầu bồi thường về bằng sáng chế.
Cần tiến hành điều tra hai bước để xác định hành vi vi phạm nhằm: (1) xác định ý nghĩa của từng cụm từ trong yêu cầu cấp bằng sáng chế; và (2) chứng minh rằng thiết bị bị buộc tội đáp ứng từng điều khoản yêu cầu bồi thường (tức là giới hạn yêu cầu bồi thường), một cách rõ ràng hoặc phù hợp với lý thuyết tương đương.
Do hầu hết AI hiện nay đều có khả năng công nghệ để vi phạm các yêu cầu về bằng sáng chế, trách nhiệm pháp lý trong trường hợp AI là người vi phạm quyền sáng chế là một vấn đề luật sáng chế quan trọng khác có thể sẽ bị AI phá vỡ.
Vấn đề trách nhiệm pháp lý đặt ra câu hỏi ai phải chịu trách nhiệm về các hành vi do AI thực hiện - người dùng cuối, nhà phát triển hoặc chính AI - cũng như câu hỏi liên quan về cách đo lường khả năng phạm tội.
Giải pháp có thể là:
- Như đã nêu trong Nghị quyết, “luật quy định trách nhiệm đối với các hoạt động có hại - trong đó người sử dụng sản phẩm phải chịu trách nhiệm về hành vi dẫn đến tổn hại” có thể áp dụng cho các thiệt hại do AI gây ra. Một bị đơn tiềm năng sẽ là người dùng cuối của AI. Tuy nhiên, điều này có thể khiến khách hàng trở nên quan tâm hơn và ít mong muốn áp dụng AI hữu ích hơn. Trong nhiều trường hợp, đặc biệt khi họ là con người chứ không phải là tổ chức thông minh, người dùng cuối không thể lường trước được hành vi vi phạm bằng sáng chế.
- Điều này đưa ra giải pháp thay thế là buộc nhà phát triển hoặc nhà sản xuất AI phải chịu trách nhiệm. Trong các vụ kiện tụng về bằng sáng chế, thông lệ điển hình là buộc nhà sản xuất sản phẩm phải chịu trách nhiệm về việc vi phạm bằng sáng chế. Điều này cũng có thể phù hợp trong bối cảnh trí tuệ nhân tạo vì các nhà phát triển chịu trách nhiệm cuối cùng trong việc tạo ra AI (vi phạm bằng sáng chế), thường ở vị trí tốt hơn để dự đoán hành vi vi phạm so với người dùng cuối và có thể đã thu được lợi ích tài chính. từ AI.
- Tuy nhiên, liệu tác nhân con người có thể thực sự thấy trước hoặc giám sát đầy đủ AI để ngăn chặn hành vi vi phạm trong trường hợp AI hoàn toàn tự chủ không? Nếu con người phải chịu trách nhiệm về những hành vi không lường trước được, chẳng hạn như vi phạm bằng sáng chế, liệu điều này có ngăn cản sự phát triển và sử dụng trí tuệ nhân tạo (AI) không? Nếu vậy, điều này sẽ ảnh hưởng đến sự đổi mới như thế nào?