Định hướng phát triển trí tuệ nhân tạo theo chuẩn mực đạo đức, đổi mới sáng tạo, Ủy ban Đạo đức trí tuệ nhân tạo đang kỳ vọng về một tương lai AI được ứng dụng một cách có trách nhiệm. Thương Gia có cuộc trao đổi với ông Nguyễn Tử Quảng, CEO Bkav, Phó Chủ tịch Hiệp hội Phần mềm và Dịch vụ công nghệ thông tin Việt Nam (VINASA), Chủ tịch Ủy ban Đạo đức AI về câu chuyện xung quanh hoạt động kiểm soát AI.
Thưa ông, gần đây VINASA đã thành lập Ủy ban Đạo đức trí tuệ nhân tạo với sứ mệnh nhằm xây dựng hệ sinh thái AI. Ông có thể nói rõ hơn về khái niệm “đạo đức” AI?
Trước tiên, xuất phát từ gốc rễ của vấn đề, tại sao chúng ta phải hình thành khái niệm “đạo đức của AI”? Tôi vẫn phải khẳng định rằng, bản chất của AI vẫn là một cỗ máy do con người lập trình để nó có thể hoạt động theo cách giống con người, như con người mong muốn. Thời gian gần đây, đặc biệt là sau khi công cụ ChatGPT ra đời thì AI được mọi người biết đến nhiều hơn. Thực tế, khoa học chứng minh, trí tuệ nhân tạo đã xuất hiện từ khoảng hơn 40 năm trước, tuy nhiên những thuật toán cũ chưa tạo nên những sản phẩm giống con người như hiện nay.
Về mặt chuyên môn, có thể nhận định rằng, dù đang bắt chước con người một cách mạnh mẽ, bài bản nhưng AI vẫn chỉ là một sản phẩm của khoa học công nghệ, chưa thể đạt trình độ như con người. Chính vì vậy, phải có những quy chuẩn về mặt đạo đức AI. Nếu ngay từ đầu chúng ra không đặt ra những quy tắc để người lập ra AI tuân theo thì có nhiều nguy cơ nó sẽ vượt qua ngoài khuôn khổ.
Con người đã trải qua hành trình hàng trăm nghìn năm hình thành và phát triển mới tạo nên những giá trị, những quy tắc đạo đức, ứng xử chuẩn mực. AI đang làm khá tốt hoạt động bắt chước con người qua việc thu thập dữ liệu, nhưng những chuẩn mực đạo đức là khái niệm vô hình, rất khó để sản phẩm trí tuệ nhân tạo có thể làm theo. Chính vì vậy, đôi khi những thứ AI làm tốt có nguy cơ trở nên gây hại khi không được kiểm soát về mặt đạo đức.
Nhiều chuyên gia cũng khẳng định, nếu AI vượt ngoài tầm kiểm soát của con người thì còn nguy hiểm hơn bom nguyên tử. Bởi lẽ, như bạn biết, một quả bom được phóng lên có thể gây hại cho một vùng đất, một thành phố, nhưng sản phẩm AI đang len lỏi vào mọi ngõ ngách, lại có thể tác động tiêu cực đến toàn xã hội…
Đặc biệt, khi AI đang dần đạt đến trình độ ngày càng giống con người, sẽ lại càng nguy hiểm hơn nữa.
Các nhà làm phim Holywood đã từng đưa ra nhiều kịch bản về AI, đa phần đều đặt giả thuyết về việc AI tiến gần tới trí tuệ con người và nhiều trường hợp sẽ lật đổ sự “cai trị” của con người với khả năng tự học. Điều đáng nói, tất cả những hệ quả ấy đều có thể chỉ bắt đầu từ một tham vọng của một cá nhân nào đó muốn AI của mình là số 1. Ông nghĩ sao về vấn đề này?
Để kiểm soát hành vi của con người thì pháp luật là công cụ tối thượng nhất. Nhưng đối với các quy tắc ứng xử về mặt đạo đức thì pháp luật rất khó có thể kiểm soát được hết. Tôi lấy ví dụ, như trong ngành y tế, trước khi ra hành nghề, trong lễ tốt nghiệp các sinh viên y khoa phải đọc và nguyện làm theo lời thề Hippocrates như một lời hứa với lương tâm của chính mình về những đạo đức làm nghề. Pháp luật là chế tài xử phạt những sai phạm, nhưng chính những quy tắc về mặt đạo đức sẽ có giá trị thiêng liêng hơn rất nhiều. Đây cũng là mục đích Ủy ban Đạo đức trí tuệ nhân tạo muốn hướng đến, với mong muốn đặt ra cho những người làm công nghệ, những người sáng tạo sản phẩm AI của Việt Nam vấn đề đạo đức nghề nghiệp.
Điều này càng cần thiết hơn khi AI là một lĩnh vực khoa học đang phát triển, pháp luật chưa có nhiều quy định cụ thể, nên trước hết, những người sáng tạo ra sản phẩm AI phải làm việc theo đạo đức, theo lương tâm trước, không được vì lợi ích cá nhân mà làm ảnh hưởng đến toàn xã hội. Sản phẩm trí tuệ nhân tạo được phát triển với mục đích nhân văn nhằm phục vụ nhu cầu của con người và toàn xã hội thì những quy tắc này càng cần thiết.
Năm 2014, nhà vật lý lý thuyết nổi tiếng người Anh Stephen Hawking cho rằng: “Sự phát triển toàn diện của trí tuệ nhân tạo có thể sẽ hủy diệt loài người”, phải chăng vì nhận định này các quốc gia và các tổ chức đều đặt vấn đề về việc kiểm soát AI?
Tôi đồng tình với quan điểm này theo một góc độ nhất định. Quay lại câu chuyện chúng ta đã nói từ đầu, AI dù có đang bắt chước con người tốt đến đâu thì nó vẫn là một cỗ máy, và đương nhiên với những gì AI làm ra thì người phải chịu trách nhiệm phải là người đứng sau hoạt động của nó. Đây cũng là điểm xuất phát để xây dựng bộ quy tắc đạo đức, con người chính là chủ thể chịu trách nhiệm trước cộng đồng và pháp luật nếu để sản phẩm trí tuệ nhân tạo của mình gây ra hệ quả tiêu cực.
Với những sản phẩm công nghệ khác thì được xây dựng dựa trên các thuật toán, nhưng riêng AI sẽ được xây dựng dựa trên dữ liệu con người đưa vào, đây cũng là lý do để nói rằng sản phẩm AI chính là tấm gương phản chiếu của người nghiên cứu, chủ sở hữu. Con người phải cần có cách ứng xử phù hợp để AI “noi gương” theo đúng nghĩa đen. Khi đưa những nguyên tắc ứng xử của con người vào sản phẩm AI cũng là cách chúng ta đang gìn giữ những giá trị bản sắc dân tộc để vừa hòa nhập với thế giới vừa bảo tồn những thứ riêng có của mình.
Với sự bùng nổ của trí tuệ nhân tạo thì hiện Bkav có cung cấp những sản phẩm AI phục vụ cộng đồng không?
Tôi tự hào khi nói rằng Bkav là một trong những đơn vị tiên phong trong lĩnh vực AI tại Việt Nam. Hiện Bkav đã đưa ra sản phẩm Camera AI đây là dòng camera giám sát tích hợp AI với cách thức hoạt động mỗi chiếc camera giống như một con người làm công tác bảo vệ, kiểm soát an ninh tại các khu vực. Camera AI của Bkav có khả năng quét hàng vài km bán kính xung quanh nên có thể ứng dụng khá tốt vào các nhiệm vụ quốc gia.
Ngoài ra đối với dòng sản phẩm Generative AI, Bkav cũng là đơn vị sở hữu nhiều sản phẩm trí tuệ nhân tạo tạo sinh có khả năng tạo ra văn bản, hình ảnh hoặc các phương tiện truyền thông khác dựa trên các câu lệnh của người sử dụng. Để đảm bảo hiệu quả hoạt động của các sản phẩm trí tuệ nhân tạo, Bkav luôn rất cẩn trọng từ giai đoạn nghiên cứu đến triển khai phát triển sản phẩm. Bkav cũng chủ động thành lập Bkav GPT, đơn vị tập trung phát triển trợ lý số thông minh, sử dụng trí tuệ nhân tạo tạo sinh.
Nhà văn khoa học viễn tưởng người Nga, Isaac Asimov đã đưa ra 3 điều luật đối với người máy gồm: Người máy không được làm hại con người hoặc không hành động khiến con người bị tổn hại; người máy phải tuân theo lệnh của con người, trừ khi lệnh đó đi trái điều luật thứ nhất; người máy phải bảo vệ sự tồn tại của nó miễn sao sự bảo vệ này không vi phạm điều luật đầu tiên và thứ hai. Nếu có 3 điều luật với AI, theo ông sẽ là gì?
Trước hết, tôi đồng ý, quy tắc chung với các sản phẩm nghiên cứu khoa học phải xuất phát từ giá trị nhân đạo, quyền lợi của nhân loại, mọi phát minh phải theo nguyên tắc vì con người, đương nhiên, mỗi xã hội khác nhau thì những giá trị đó sẽ khác nhau. Cùng với đó, là người Việt Nam, tôi luôn muốn những sản phẩm trí tuệ nhân tạo phải mang bản sắc dân tộc, gìn giữ những giá trị truyền thống. Đặt vấn đề trong bối cảnh bạn gợi ý, tôi nhận thấy 3 điều luật của nhà văn Isaac Asimov đưa ra với người máy mang tính triết học rất cao hoàn toàn có thể áp dụng với AI. Để làm được điều đấy, ngay từ ban đầu, người sáng lập AI cần làm rõ những quy tắc đạo đức để AI tự định nghĩa khái niệm thế nào là tốt, thế nào là xấu với cộng đồng, sau đó có thể áp dụng 3 điều luật của nhà văn Isaac Asimov với sự phát triển của AI.
Ông có thể đưa ra 1 dự đoán về sự phát triển của AI tại Việt Nam nói riêng và thế giới nói chung trong 5 năm tới?
Thực ra, hiện nay sự phát triển của AI được các nhà nghiên cứu dự đoán theo từng ngày, từng tháng, nên rất khó để đưa ra dự đoán về diễn biến mới trong vài năm tới. Bản thân tôi cũng theo dõi sự phát triển đó hàng ngày dựa vào các thông tin trong nước và trên thế giới.
Nhưng dựa trên những gì chính mình cùng các cộng sự nghiên cứu và phát triển, tôi cũng mạnh dạn dự đoán về một kịch bản theo hướng tích cực bởi nếu có những diễn biến xấu, tôi tin chắc sẽ bị ngăn chặn kịp thời. Với tốc độ phát triển của AI và nhu cầu sử dụng của con người như hiện nay, thì trong khoảng vài năm nữa, mỗi cá nhân sẽ có một trợ lý số riêng. Không nói quá nhưng nếu duy trì và phát triển sản phẩm AI thì con người sẽ được giải phóng sức lao động, có thời gian nghiên cứu, phát triển những thứ vĩ mô hơn.
Nhưng cũng phải nhìn vào thực tế, khi AI phát triển ngày càng mạnh mẽ thì con người lại cần có sự thay đổi trong tư duy và cách thức đào tạo. Các trường học cần đào tạo về cách sử dụng AI để có thể khai thác hiệu quả tiềm năng của nó hoặc đào tạo nâng cao hơn về những nguyên lý gốc.
Xin cảm ơn ông!
(Tạp chí Thương Gia)