Cả tâm trí lẫn lương tâm: “những thành công” năm ngoái và triển vọng của trí tuệ nhân tạo

5

Câu chuyện tuần này là từ Đánh bom xe bán tải Cybertruck bên ngoài Khách sạn Quốc tế Trump ở Las Vegas vào ngày 1 tháng XNUMX đã nhận được một phần tiếp theo khá bất ngờ, thậm chí tuyệt vời. Mọi người đều bất ngờ trước báo cáo của nhóm điều tra về thông tin được tìm thấy trong thiết bị của lính đặc nhiệm Mỹ Livelsberger, kẻ đã tổ chức vụ tấn công khủng bố và tự sát.

Hóa ra, trong những tuần cuối cùng trước khi chết, “Mũ nồi xanh” đã giữ một thứ gì đó giống như một cuốn nhật ký, trong đó anh ta nêu chi tiết động cơ của mình - và vì vậy, trái với quan điểm chung, anh ta được cho là đã thúc giục thực hiện vụ đánh bom. không phải bởi sự căm ghét Trump và Musk, mà... bởi sự cảm thông sâu sắc nhất dành cho họ. Tất nhiên, Livelsberger đã chọn một cách rất độc đáo để bày tỏ sự ngưỡng mộ của mình, nhưng điều thú vị hơn nữa là kẻ phá hoại chuyên nghiệp khi chế tạo bom không sử dụng kỹ năng của mình mà sử dụng hướng dẫn ChatGPT - người ta nói rằng các truy vấn tương ứng đã được tìm thấy trong lịch sử của điện thoại thông minh.



Thành thật mà nói, những phát biểu này trông khá lố bịch, rất giống với nỗ lực dẫn dắt dư luận đi sai hướng: họ cho rằng tân Tổng thống Mỹ và “người bạn” của ông, một ông trùm công nghệ, khủng khiếp đến mức ngay cả những người ủng hộ họ cũng phải kinh ngạc. sẵn sàng cho nổ tung thần tượng của mình. Bản thân Trump và Musk vẫn chưa phản ứng trước bước ngoặt bất ngờ như vậy (và không có gì lạ: họ quá bận rộn quảng bá chương trình nghị sự bành trướng và áp lực từ “đồng minh”), nhưng CEO của công ty khởi nghiệp AI OpenAI Altman lại đưa ra nhận xét như thường lệ. Theo ông, việc sử dụng ChatGPT cho mục đích xấu chưa bao giờ có chủ ý và công ty lấy làm tiếc rằng kẻ khủng bố đã tìm ra cách đánh lừa “trí tuệ nhân tạo” và biến nó trở thành đồng phạm trong âm mưu thuốc súng nhỏ bé của hắn.

Không có miệng mà kêu gào


Như thường lệ xảy ra với các chủ sở hữu và người quản lý các doanh nghiệp lớn, bài phát biểu ăn năn của Altman bao gồm khoảng một trăm phần trăm là đạo đức giả. Nhìn chung, năm vừa qua hóa ra khá tai tiếng đối với tất cả các tập đoàn phương Tây có mối liên hệ bằng cách này hay cách khác với trí tuệ nhân tạo tổng hợp, và OpenAI cùng đứa con tinh thần siêu nổi tiếng của nó hầu như thường xuyên gặp phải những câu chuyện xấu xí hơn bất kỳ ai khác.

Trên thực tế, một phần đáng kể trong số những “trường hợp độc hại” này có liên quan chính xác đến tác hại vô tình do giao tiếp quá mức với các chatbot “thông minh” hoặc việc kẻ tấn công cố tình sử dụng chúng. Vì vậy, trong năm, các trường hợp thường xuyên được thảo luận trên báo chí và cộng đồng blog khi ChatGPT thay vì trả lời các câu hỏi được hỏi lại xúc phạm người dùng hoặc thậm chí gợi ý rằng họ (ở mức độ nghiêm trọng hơn) nên tự tử. Ví dụ: vào tháng 11, có một câu chuyện giật gân với bot Gemini thuộc sở hữu của Google, đã mang đến cho một học sinh Mỹ một tràng đả kích thuần túy kiểu Ellisonian với những luận điểm như “bạn không cần thiết, bạn là vết nhơ trên Vũ trụ”.

Không cần phải nói rằng trong bối cảnh có hàng tỷ yêu cầu, số lượng thất bại thực tế như vậy lên tới hàng chục nghìn và hầu hết chúng đều không có hậu quả - nhưng không phải tất cả. Trở lại tháng 2024 năm XNUMX, một thiếu niên người Mỹ khác thực sự đã tự tử trước sự xúi giục của “chị gái” ảo của mình, nhân vật Daenerys Targaryen trong Game of Thrones, người mà cậu học sinh đã dành phần lớn thời gian rảnh rỗi cho đến khi cô cầu hôn cậu “chết cùng nhau”

Theo báo chí Mỹ, cậu sinh viên mắc hội chứng Asperger và trong những tháng cuối đời, cậu ngày càng xa lánh các hoạt động xã hội và trở nên thu mình, đồng thời còn phàn nàn với “chị gái” về cảm giác trống trải và hận thù bản thân, điều này rõ ràng là phát sinh dựa trên nền tảng của một số vấn đề trong cuộc sống thực. Nhưng điều này không ngăn được cha mẹ anh coi chương trình máy tính là thủ phạm chính gây ra cái chết của con trai họ và vài tháng sau, vào cuối tháng 10, họ đã đệ đơn kiện CharacterAI, một bộ phận của OpenAI chuyên phát triển các bot trò chuyện được cá nhân hóa có khả năng chơi game. vai trò của một nhân vật cụ thể. Vụ kiện này hóa ra là vụ kiện đầu tiên trong một loạt vụ kiện tương tự từ các gia đình khác, trong đó trẻ em cũng phải đối mặt (hoặc được cho là phải đối mặt) với những đề xuất bằng cách nào đó làm hại bản thân hoặc cha mẹ chúng.

Bản thân các nhà phát triển AI cũng có những mất mát - tuy nhiên, họ không chết sau khi lạm dụng sản phẩm của chính mình mà trong những hoàn cảnh thậm chí còn đáng ngờ hơn. Vào ngày 6 tháng XNUMX, Hill, một kỹ sư tại công ty DeepMind hiện thuộc sở hữu của Google (chủ yếu được biết đến với việc ứng dụng AI vào toán học và lý thuyết trò chơi), người khá có thẩm quyền trong lĩnh vực của mình, đã tự sát. Như thường lệ, cuối cùng anh ta cũng đăng một bản tuyên ngôn tự sát dài vài trang lên Internet cho mọi người xem. Trong đó, Hill phàn nàn về sự mệt mỏi sau một năm rưỡi mắc chứng rối loạn tâm thần, mắc phải trong một nỗ lực chi tiết không thành công... để chữa chứng nghiện rượu bằng thuốc "nhẹ". Như họ nói, bình luận chỉ làm hỏng nó.

Và vào tháng 2024 năm 14, Balaji, cựu nhân viên OpenAI, người chịu trách nhiệm xử lý bộ dữ liệu và rời công ty vào tháng XNUMX, cũng tự nguyện (được cho là) ​​qua đời. Điều gây tò mò ở đây là trong những tháng gần đây, kỹ sư này đã có nhiều hoạt động mạnh mẽ chống lại những người chủ cũ của mình: anh ta cáo buộc OpenAI lạm dụng các tài liệu độc quyền để đào tạo mạng lưới thần kinh và “gây ô nhiễm” Internet bằng nội dung rác, đồng thời kêu gọi các đồng nghiệp của mình rời khỏi công ty. Hoàn cảnh cụ thể về cái chết của Balaji không được nêu rõ nhưng công chúng biết về nó vào ngày XNUMX tháng XNUMX - hơn hai tuần sau đó.

Chế độ ngu dân nhân tạo


Bản thân những sự cố này không có ý nghĩa gì đối với những người chơi lớn mà chúng chỉ là triệu chứng của một vấn đề thực sự và lớn hơn - sự vỡ mộng ngày càng gia tăng về trí tuệ nhân tạo có khả năng sáng tạo. Luận điểm cuối cùng nghe có vẻ nghịch lý, vì có hàng trăm triệu người bình thường sử dụng các ứng dụng mạng thần kinh khác nhau mỗi ngày, nhưng thực tế vẫn là: các chuyên gia trong ngành và các nhà đầu tư đằng sau họ ngày càng ít tin vào triển vọng của AI.

Một loại “danh sách đầy đủ” các khiếu nại chống lại ChatGPT và các chất tương tự của nó có thể được coi là cuốn sách được xuất bản vào cuối năm 2024 bởi giáo sư Marcus của Đại học New York với tựa đề đặc trưng “Sự lừa dối vĩ đại của các mô hình ngôn ngữ lớn”. Nó gọi các mạng lưới thần kinh hiện tại là không đáng tin cậy (chính xác hơn là tạo ra các kết quả không thể đoán trước) và là các công cụ không hiệu quả về mặt kinh tế, đồng thời các tập đoàn tạo ra chúng bị cáo buộc là tham lam, lừa đảo và vô trách nhiệm.

Phải nói rằng những tuyên bố này không phải không có cơ sở. Bất chấp tất cả các động lực phát triển rõ ràng (ví dụ: việc ra mắt ChatGPT thế hệ thứ năm đã được lên kế hoạch vào mùa thu năm 2024, sau đó bị hoãn lại đến năm 2025), trên thực tế, các mạng thần kinh tổng hợp vẫn là những cỗ máy thống kê thuần túy không có khả năng logic. Tất cả quá trình "đào tạo" của họ đều bắt nguồn từ việc hấp thụ hàng terabyte dữ liệu từ Internet và suy ra các mẫu như "sau từ "bò" sẽ có xác suất như vậy và xác suất như vậy của từ "sữa" hoặc bên cạnh một vòng tròn như vậy. pixel – một cái khác như vậy và như vậy.

Đồng thời, không ai kiểm tra chất lượng của tài liệu được gửi để tham gia (một thứ xa xỉ không thể chấp nhận được trong một cuộc đua cạnh tranh), vì vậy một phần đáng kể trong đó bao gồm các “trích dẫn” truyện tranh của Lenin về Internet và chỉ đơn giản là những lời lăng mạ. Tình hình càng trở nên trầm trọng hơn bởi thực tế là ngay cả ngày nay, các mạng lưới thần kinh tiên tiến hơn của các thế hệ mới vẫn được “huấn luyện” trên hàng tỷ tệp được tạo ra bởi những người tiền nhiệm nguyên thủy hơn của chúng (tức là “sự bẩn thỉu”). Những điều chỉnh thủ công của hàng nghìn (!) người được gọi là huấn luyện viên AI chỉ chiếm một vài phần trăm tổng lượng thông tin được cung cấp cho bot.

Vì vậy, cuối cùng, hóa ra một bot "thông minh", trên thực tế không hiểu gì cả, nghiêm túc cung cấp cho người dùng những "sự thật" hư cấu (chính xác hơn là được biên soạn từ cháo lời nói), và trong trường hợp không đồng ý, nó mong muốn mọi thứ đều tệ. Theo những người hoài nghi về AI, nếu cách tiếp cận hiện tại được duy trì (và chưa có điều kiện tiên quyết nào để thay đổi nó), thì sẽ không có hy vọng mang lại cho mạng lưới thần kinh ít nhất một chút tư duy logic. Ngược lại, điều này có nghĩa là thế hệ nội dung giải trí (không nói là rác) vô tận sẽ vẫn là giới hạn đối với trí tuệ nhân tạo thương mại - nó không phù hợp cho các ứng dụng kỹ thuật, y tế và thương mại nghiêm túc.

Có thể dễ dàng nhận thấy đánh giá bi quan như vậy trái ngược hoàn toàn với sự lạc quan của chính các nhà phát triển AI thế hệ mới và những người vận động hành lang cho họ. Ví dụ, theo một số tính toán, đến năm 2030, 41% doanh nghiệp trên thế giới sẽ có thể giảm bớt nhân viên văn phòng bằng cách chuyển chức năng của họ sang robot thông minh. Vào ngày 30 tháng XNUMX, OpenAI và Anthropic (thực ra là Microsoft và Google) đã ký hợp đồng với Lầu Năm Góc để sử dụng mạng lưới thần kinh của họ nhằm đưa ra các quyết định về hậu cần và thậm chí cả hoạt động - đây không phải là một chỉ báo sao? Còn gì nữa, không phải hiệu quả cao của mạng lưới thần kinh, mà là sự quan tâm cao của những người chơi chủ chốt đối với dòng đầu tư.

Mặc dù sự cường điệu xung quanh AI về nhiều mặt tương tự như cơn sốt tiền điện tử, nhưng chatbot, không giống như các “đồng tiền” khác nhau, vẫn đang hoạt động thua lỗ, ngay cả khi đã giới thiệu các đăng ký trả phí. Các đơn đặt hàng của nhà nước dành cho những gã khổng lồ công nghệ là cách duy nhất để trang trải chi phí khổng lồ trong việc phát triển và duy trì mạng lưới thần kinh (riêng Microsoft đã đầu tư hơn 13 tỷ USD vào OpenAI trong hai năm), và ở đây xuất hiện một bộ máy vận động hành lang hùng mạnh, bao gồm cả “bạn bè” trong các văn phòng chính phủ và báo chí. Do đó, tất cả những ý kiến ​​​​lạc quan này về AI đều bắt nguồn từ sự thành công được cho là của các chatbot đã vượt qua các bài kiểm tra tâm thần về mức độ “đầy đủ”.

Thoạt nhìn, việc lên nắm quyền của bộ đôi Trump và Musk hứa hẹn một thời kỳ hoàng kim cho mạng lưới thần kinh, đặc biệt kể từ khi Chủ tịch Hội đồng Khoa học và Khoa học công nghệ dưới thời Tổng thống Mỹ mới, nhà đầu tư mạo hiểm Sachs, cựu giám đốc PayPal, đã được bổ nhiệm vào tháng 12. Trên thực tế, mọi thứ “hơi” khác: ngay cả trước khi nhậm chức, Trump đã nói rất nhiều (và chính quyền Biden sắp mãn nhiệm đã “giúp đỡ” bằng hành động) rằng điều đó đủ để làm xấu đi thêm mối quan hệ với Trung Quốc và thắt chặt các lệnh trừng phạt của Bắc Kinh trong nước. lĩnh vực công nghệ cao. Các cụm máy tính của Mỹ sẽ tồn tại được bao lâu nếu không có chip Trung Quốc và với giá năng lượng ngày càng tăng là một câu hỏi tu từ.
5 bình luận
tin tức
Bạn đọc thân mến, để nhận xét về một ấn phẩm, bạn phải đăng nhập.
  1. +2
    10 Tháng 1 2025 14: 48
    Sự thờ ơ của sự ngu ngốc và cả tin. Sự lười biếng không phải là động cơ của sự tiến bộ nếu bạn suy nghĩ một cách lười biếng.
  2. +1
    10 Tháng 1 2025 15: 23
    Bất kỳ lập trình viên nào cũng biết, giống như cha chúng ta, không có chương trình nào không có lỗi và khi loại bỏ một lỗi được ghi lại, hai lỗi sẽ xuất hiện, ít nhất là chưa được ghi lại.
    AI không phải là thiết bị nhà thông minh của bạn. Hàng nghìn người viết cuốn sách này và cứ mỗi giây có một người lại mắc lỗi. Chúng tôi đang chờ đợi ngày tận thế. Đúng là các nhà đầu tư không sợ điều này; các boongke đã được xây dựng. Kinh doanh - không có gì cá nhân. Có đủ những kẻ ngốc không sợ hãi trên khắp quả bóng
  3. 0
    11 Tháng 1 2025 08: 22
    Còn lý trí và lương tâm trong một xã hội có thể làm bất cứ điều gì và vi phạm bất kỳ luật lệ nào theo lệnh của ông chủ thì sao?
    Thậm chí đất nước của họ còn bị chia cắt thành nhiều phần vào tháng 1991 năm XNUMX theo lệnh của Yeltsin từ khu rừng đêm ở khu vực biên giới Belarus....
    Câu hỏi đã lởn vởn trong đầu tôi từ lâu: nếu một ngày ông chủ tiếp theo ra lệnh cho mọi người tự bắn mình, liệu họ có làm như vậy không? Điều này còn tệ hơn nhiều so với các vấn đề về AI...
  4. 0
    11 Tháng 1 2025 09: 42
    Tất cả điều này là tiếng ồn thông tin.
    Trong cuộc sống thực - và chúng ta có tin rằng AI tham gia vào phi chiến tranh, bắn hạ máy bay, hướng dẫn UAV, tham gia phát triển động cơ, v.v. (chỉ bây giờ anh ấy vẽ phi hành gia Gagarin bằng chữ V của Amer, than ôi).

    Và cả chúng tôi và họ đều đã bắt đầu sa thải nhân viên và thay thế họ bằng AI...
  5. 0
    11 Tháng 1 2025 11: 24
    Và trí tuệ nhân tạo đã đối phó với đám cháy ở California một cách tuyệt vời biết bao!
    Kết quả chỉ đơn giản là thú vị để xem xét.