Banner

Các quốc gia chạy đua trong việc quản lý công cụ AI

09:01, 21/05/2023

Sự phát triển ngày càng mạnh mẽ của các công cụ AI đang đặt ra cho các quốc gia nhiều thách thức trong việc quản lý và phòng ngừa rủi ro.

G7 nhất trí về việc xây dựng các quy tắc quốc tế đối với AI

 

 

Theo Japan News, trong phiên họp thượng đỉnh chiều thứ Sáu (19/5) tại Hiroshima, Nhật Bản, các nhà lãnh đạo G7 (Nhóm các nước công nghiệp phát triển hàng đầu thế giới) đã nhất trí về một sáng kiến nhằm xây dựng các quy tắc quốc tế đối với trí tuệ nhân tạo (AI).

 

 
 
Các nhà lãnh đạo G7 tại Hội nghị thượng đỉnh ở Hiroshima, Nhật Bản hôm 19/5. (Nguồn: AP)

 

 

 

 

Việc đưa ra những quy tắc quốc tế với AI được coi là nhu cầu cấp thiết, trong bối cảnh các quốc gia đang phải vật lộn với những vấn đề phát sinh từ công nghệ AI, chẳng hạn như vi phạm bản quyền và lan truyền thông tin sai lệch.

 

 

Các nhà lãnh đạo đã nhất trí với đề xuất của Chính phủ Nhật Bản về khuôn khổ thúc đẩy đối thoại cấp nội các về các quy tắc trí tuệ nhân tạo. Được mệnh danh là Quy trình AI của Hiroshima, sáng kiến này nhằm mục đích thống nhất quan điểm về các quy tắc công nghệ giữa các quốc gia G7. 

 

 

Các nhà lãnh đạo G7 cũng thảo luận về tiềm năng và rủi ro của AI, đặc biệt là các mô hình đàm thoại như ChatGPT, một dịch vụ đã trở nên phổ biến trong thời gian gần đây nhưng cũng gây lo ngại lớn về nguy cơ vi phạm bản quyền.

 

 

Cả Chủ tịch Ủy ban châu Âu (EC) Ursula von der Leyen và Thủ tướng Vương quốc Anh Rishi Sunak đều đã bày tỏ quan điểm ủng hộ mạnh mẽ đối với "các biện pháp bảo vệ" cho sự phát triển của công nghệ.

 

Chúng ta cũng cần xây dựng những biện pháp bảo vệ cho quá trình phát triển AI. Chúng tôi muốn các hệ thống AI phải chính xác, đáng tin cậy, an toàn và không phân biệt đối xử, bất kể nguồn gốc của chúng

 

"Những lợi ích tiềm năng của trí tuệ nhân tạo đối với người dân và nền kinh tế là rất lớn," bà von der Leyen cho biết trong phiên khai mạc hội nghị tại Hiroshima hôm thứ Sáu. "Tuy nhiên, chúng ta cũng cần xây dựng những biện pháp bảo vệ cho quá trình phát triển AI. Chúng tôi muốn các hệ thống AI phải chính xác, đáng tin cậy, an toàn và không phân biệt đối xử, bất kể nguồn gốc của chúng".

 

 

Thủ tướng Anh Sunak nhận định, AI có tiềm năng mang lại lợi ích cho tăng trưởng kinh tế và chuyển đổi dịch vụ công cộng, miễn là nó được sử dụng "một cách an toàn, bảo mật, và có hàng rào bảo vệ". Ông cũng nói thêm rằng, Chính phủ Anh sẽ hợp tác chặt chẽ với các đồng minh quốc tế, để phối hợp các nỗ lực nhằm đảm bảo quy định phù hợp cho các công ty phát triển AI.

 

 

Những cảnh báo ngày càng gia tăng về rủi ro từ AI

 

 

Động thái của các nước G7 được đưa ra trong bối cảnh những tiến bộ nhanh chóng của AI trong những tháng gần đây đã thu hút sự quan tâm của toàn thế giới, cả theo góc độ tích cực và tiêu cực.

 

 

Một mặt, sự phát triển ngoạn mục của các công cụ AI tạo sinh, với các tính năng đa dạng như sáng tác nhạc, vẽ tranh, viết luận, làm thơ… đã khiến nhiều người dùng mê mẩn. 

 

 

Tuy nhiên, sự thông minh của các công cụ cũng khiến nhiều người cảm thấy lo ngại, bởi những hệ lụy tiềm ẩn mà chúng có thể mang lại, làm biến đổi hoàn toàn cuộc sống hàng ngày của con người, từ công việc, giáo dục cho đến đến vấn đề bản quyền và quyền riêng tư. Một cuộc khảo sát gần đây của Reuters/Ipsos cũng cho thấy 61% người Mỹ được hỏi lo ngại AI có thể đe dọa tương lai của con người.

 

 
 
Một cuộc khảo sát gần đây của Reuters/Ipsos cho thấy 61% người Mỹ được hỏi lo ngại AI có thể đe dọa tương lai của con người. (Nguồn: Reuters)

 

 

 

 

 

Hàng trăm chuyên gia công nghệ và nhà nghiên cứu khoa học hàng đầu đã cảnh báo về sự nguy hiểm của AI. 

 

 

Trong một bức thư ngỏ được công bố hồi cuối tháng 3 thậm chí đã kêu gọi các doanh nghiệp cần "tạm dừng" việc phát triển những mô hình AI mới trong vòng 6 tháng. Các tên tuổi lớn như tỷ phú Elon Musk – Giám đốc điều hành hãng xe điện Tesla hay nhà đồng sáng lập hãng công nghệ Apple Steve Wozniak đều coi đây là điều cần thiết để xem xét các rủi ro.

 

 
 
Tỷ phú Elon Musk và nhà đồng sáng lập Aplle Steve Wozniak nằm trong số những nhà lãnh đạo công nghệ hàng đầu kêu gọi tạm dừng cuộc đua AI nguy hiểm. (Nguồn: AP)

 

 

 

 

 

Hồi đầu tháng này, nhà khoa học kỳ cựu Geoffrey Hinton đã quyết định từ bỏ vị trí phó chủ tịch tại Google để có thể trực tiếp đưa ra những cảnh báo về mối đe dọa của trí tuệ nhân tạo.

Tôi không nghĩ họ (các công ty công nghệ) nên mở rộng quy mô của các mô hình AI, cho đến khi họ thực sự chắc rằng mình có thể kiểm soát được nó

 

"Tôi không nghĩ họ nên mở rộng quy mô của các mô hình AI, cho đến khi họ thực sự chắc rằng mình có thể kiểm soát được nó," vị chuyên gia thường được ví như "cha đỡ đầu" của AI, chia sẻ với New York Times. 

 

 

Ông Hinton cũng kêu gọi cần có các quy định và sự hợp tác toàn cầu để kiềm chế công nghệ mà ông và nhiều người khác cho rằng có thể hủy hoại thị trường lao động, làm biến dạng môi trường Internet, hoặc thậm chí vượt qua trí thông minh của con người.

 

 
 
Nhà khoa học kỳ cựu Geoffrey Hinton cảnh báo mối đe dọa từ AI thậm chí còn khẩn cấp hơn biến đổi khí hậu. (Nguồn: Reuters)

 

 

 

Châu Âu đi đầu trong việc quản lý công nghệ AI

 

Trên thực tế, cho đến nay, vẫn có rất ít thỏa thuận cụ thể giữa các chính phủ về cách thức giám sát AI. Các quy định về AI giữa các nước thành viên G7 cũng vẫn còn nhiều sự khác biệt đáng kể.

 

 

Liên minh Châu Âu (EU) hiện đang là khu vực hành động quyết liệt hơn cả trong việc thiết lập quy định quản lý công nghệ mới. Ngay từ năm 2021, giới chức EU đã đề xuất một đạo luật AI nhằm quản lý tất cả các sản phẩm và dịch vụ sử dụng công nghệ này.

 

 
 
Giới lập pháp Liên minh châu Âu (EU) đang nỗ lực thông qua dự thảo luật về AI ngay trong năm nay. (Nguồn: WSJ)

 

 

 

 

 

 

 

Đạo luật sẽ phân loại các công cụ AI theo mức độ nguy cơ mà mỗi công cụ có thể gây ra, từ mức thấp tới mức không thể chấp nhận được, và buộc các chính phủ, doanh nghiệp sử dụng những công cụ này phải tuân thủ các nghĩa vụ khác nhau tùy theo mức độ nguy cơ, trong đó bao gồm yêu cầu minh bạch và sử dụng dữ liệu chính xác.

 

 

Để phù hợp với những thay đổi chóng mặt của công nghệ, hôm 11/5 vừa qua, giới chức EU đã tiếp tục thông qua hơn 3 nghìn điều chỉnh trong dự luật quản lý AI. 

 

 

Trong đó, đáng chú ý là việc các đơn vị phát triển AI sẽ phải tiến hành việc đánh giá mức độ an toàn, có giải pháp quản lý dữ liệu và giảm thiểu rủi ro trước khi đưa sản phẩm ra thị trường. Các công cụ AI cũng phải gửi thông báo lưu ý người dùng rằng sản phẩm của các công cụ này là do AI tạo ra.

 

 

Dự kiến, Nghị viện châu Âu sẽ tiến hành biểu quyết thông qua dự thảo luật sửa đổi vào giữa tháng 6 tới, trước khi để các nước thành viên thông qua muộn nhất vào đầu năm 2024. Nếu được thông qua một cách thuận lợi, đạo luật AI của châu Âu được kỳ vọng có thể tạo ra ảnh hưởng lớn đến phần còn lại của thế giới, thậm chí trở thành tiêu chuẩn toàn cầu trên thực tế cho trí tuệ nhân tạo.

 

 

Cuộc chạy đua kiểm soát AI lan rộng

 

 

Tại Mỹ - quê hương của nhiều hãng công nghệ lớn, ngay từ năm ngoái, giới chức chính phủ đã bắt đầu soạn thảo các hướng dẫn sử dụng và phát triển AI do lo ngại vấn đề về vi phạm quyền riêng tư.

 

 

Hồi cuối tháng 4, Ủy ban Thương mại Liên bang và Bộ Tư pháp Mỹ cho biết sẽ sử dụng các công cụ pháp lý để chống lại mối nguy hại liên quan đến AI. Bộ Thương mại Mỹ cũng tiến hành lấy ý kiến đóng góp của các cơ quan, tổ chức và chuyên gia trong lĩnh vực công nghệ về các quy định liên quan đến các biện pháp trách nhiệm giải trình tiềm năng đối với các hệ thống AI.

 

 
 
Tổng thống Mỹ Joe Biden kêu gọi giám đốc điều hành các hãng công nghệ hàng đầu của Mỹ cần hạn chế những rủi ro mà các công cụ AI có thể mang lại cho người dùng. (Nguồn: Reuters)

 

 

 

 

 

Hôm 4/5, trong một cuộc họp với giám đốc điều hành các hãng công nghệ hàng đầu của Mỹ như Microsoft, Google, Tổng thống Joe Biden đã nhấn mạnh về sự cần thiết phải hạn chế rủi ro mà AI có thể mang lại cho người dùng, xã hội và an ninh quốc gia. 

Các công ty công nghệ phải có trách nhiệm đảm bảo rằng, sản phẩm của họ an toàn trước khi được triển khai rộng rãi ra thị trường

 

Do đó, ông Biden kêu gọi, "các công ty công nghệ phải có trách nhiệm đảm bảo rằng, sản phẩm của họ an toàn trước khi được triển khai rộng rãi ra thị trường".

 

 

Những động thái tương tự cũng được thúc đẩy tại nhiều quốc gia khác. Giới chức Nhật Bản đang tiến hành các cuộc thảo luận chủ yếu tập trung vào cách thức AI có thể được sử dụng, trong khi Chính phủ Anh đã lên kế hoạch phân chia trách nhiệm quản lý AI giữa các cơ quan quản lý nhân quyền, sức khỏe, an toàn và cạnh tranh.

 

 

Thủ tướng Anh Rishi Sunak thậm chí đã nhấn mạnh tầm quan trọng của việc đảm bảo "năng lực chủ quyền" với AI để quản lý rủi ro an ninh quốc gia.

 

 

Tại nền kinh tế lớn thứ hai thế giới là Trung Quốc, cơ quan quản lý không gian mạng cũng đã công bố dự thảo quản lý các dịch vụ AI tạo sinh hồi tháng 4 vừa qua. Theo dự thảo này, các công ty sẽ phải gửi đánh giá bảo mật cho cơ quan chức năng, trước khi triển khai các dịch vụ, sản phẩm ra thị trường.

 

 
 
Hồi tháng 4, cơ quan quản lý không gian mạng Trung Quốc đã công bố dự thảo quản lý các dịch vụ AI tạo sinh. (Nguồn: Xinhua)

 

 

 

 

 

Theo ông Matt Sheehan, chuyên gia về lĩnh vực công nghệ Trung Quốc tại Quỹ Carnegie vì Hòa bình Quốc tế, trong khi EU lựa chọn cách tiếp cận toàn diện với hàng loạt quy định, Trung Quốc có xu hướng áp dụng biện pháp tiếp cận từng phần hơn, với các chính sách liên tiếp nhắm vào các ứng dụng AI cụ thể. Điều này được kỳ vọng sẽ giúp Bắc Kinh "có thể liên tục phản ứng với những thay đổi trong công nghệ đồng thời duy trì sự giám sát chặt chẽ hơn".

 

 

Khoảng cách từ mong muốn đến hiện thực vẫn còn xa

 

 

Trong bối cảnh cuộc chạy đua kiểm soát công nghệ AI đang ngày càng nóng lên, giới lãnh đạo các công ty công nghệ phần lớn đều đồng ý rằng, cần có các quy định quản lý lĩnh vực với tiềm năng to lớn này.

 

 

Trong phiên điều trần trước một tiểu ban Thượng viện Mỹ hôm 16/5, Sam Altman – Giám đốc điều hành công ty công nghệ OpenAI đã bày tỏ quan điểm ủng hộ sự tham gia của chính phủ trong việc kiểm soát các công cụ AI. Ông cũng đề xuất về việc thành lập một cơ quan quản lý tập trung, đảm nhiệm việc cấp giấy phép phát triển các mô hình AI, đặt ra những quy định về thử nghiệm mà các mô hình AI cần phải vượt qua, trước khi được tung ra thị trường.

 

 
 
Giám đốc điều hành công ty công nghệ OpenAI trong phiên điều trần trước Thượng viện Mỹ hôm 16/5. (Nguồn: Bloomberg)

 

 

 

 

 

"Chúng tôi tin rằng lợi ích của các công cụ mà chúng tôi đã triển khai cho đến nay lớn hơn rất nhiều so với rủi ro, nhưng việc đảm bảo an toàn cho chúng là rất quan trọng đối với công việc của chúng tôi", ông Altman chia sẻ với các nhà lập pháp Mỹ.

 

 

Trước đó, Microsoft – công ty hậu thuẫn cho OpenAI đã bày tỏ sự hoan nghênh đối với nỗ lực quản lý công nghệ AI ở châu Âu, coi đây là bước đi quan trọng "hướng tới việc đưa các công cụ AI đáng tin cậy trở thành tiêu chuẩn ở châu Âu và trên toàn thế giới".

 

 

Ông Sundar Pichai – giám đốc điều hành Google – công ty đang cạnh tranh với ChatGPT bằng chatbot Bard và nhiều công cụ AI khác, cũng thừa nhận rằng, "AI là một lĩnh vực quá quan trọng và cần phải có sự điều tiết".

 

 

Tuy nhiên, bên cạnh việc hoan nghênh các hình thức giám sát, giới lãnh đạo công nghệ cũng bày tỏ sự lo ngại về những quy tắc mà họ cho là quá nặng tay. 

 

 

Giám đốc ủy thác và quyền riêng tư của IBM, Christina Montgomery đã lên tiếng yêu cầu Quốc hội Mỹ tập trung vào cách tiếp cận dựa trên rủi ro. Bà kêu gọi cần đưa ra các "quy định chính xác" về cách thức sử dụng các công cụ AI, thay vì hạn chế cách thức chúng được phát triển. "Về cơ bản, chúng tôi nghĩ rằng công cụ AI nên được điều chỉnh tại điểm rủi ro", bà Montgomery cho biết.

 

 
 
Giám đốc ủy thác và quyền riêng tư IBM Christina Montgomery trong phiên điều trần trước Thượng viện Mỹ hôm 16/5. (Nguồn: Reuters)

 

 

 

 

Foreign Policy nhận định, việc thiết lập các khuôn khổ quy định chung cho công nghệ luôn là điều rất khó khăn, đặc biệt là với các công nghệ đang không ngừng phát triển như AI. Các quy định quá thoáng, có thể nhanh chóng trở nên lỗi thời, trong khi các quy định quá chặt chẽ, sẽ làm cản trở sự phát triển của AI, ảnh hưởng đến năng lực cạnh tranh của mỗi quốc gia.

 

 

Thực tế cho thấy, quá trình đàm phán để xây dựng các quy tắc về phương tiện truyền thông xã hội, công nghệ viễn thông 5G… đều đã gây ra nhiều rắc rối về địa chính trị, cũng như sự bất đồng gay gắt về cách thức tiếp cận tốt nhất. Và với trí tuệ nhân tạo, mức độ thách thức càng lớn hơn gấp bội.

 

 
 
Các tập đoàn công nghệ lớn như Google hay Microsoft hiện vẫn thận trọng trước khả năng triển khai các quy định quản lý công nghệ AI. (Nguồn: Reuters)

 

 

 

 

 

Chia sẻ quan điểm trên, Giám đốc điều hành Google Sundar Pichai cũng nhận định, "việc điều tiết các quy định quản lý sao cho hợp lý sẽ cần rất nhiều cuộc tranh luận. Bởi không ai biết tất cả các câu trả lời. Không một công ty nào có thể làm mọi thứ đều đúng".

 

 

Theo VTV.vn