- Biển số
- OF-755060
- Ngày cấp bằng
- 29/12/20
- Số km
- 2,559
- Động cơ
- 1,833,071 Mã lực
Các cụ đã đủ thông tin để đánh giá con AI Tàu như này chưa?
Thấy bảo không tới mức đó đâu cụ.Cụ tải về mà chạy. Chạy được bản R1 full thì phải 1 cái máy 16 con card A100, giẻ rách cũng tốn cho cái máy khoảng 6 tỷ mới chạy nổi cho 1 người dùng.
Còn nếu dùng máy lởm 60-70 triệu thì phải chấp nhận dùng bản rút gọn chạy ngu hơn con bò hoặc chạy bản full nhưng với tốc độ 60-120 phút ra 1 câu trả lời.
Bài của cụ dẫn chính là kiểu chạy khổ dâm với máy ghẻ mà em nói đấy. Chạy bằng SSD để thay RAM. Nhả 1 câu trả lời dài 8000 token mất 120 phút. Vừa khổ dâm vừa nhanh hỏng máy. Chạy kiểu này vừa chậm vừa lag tung đít. Đây là chạy kiểu nghịch ngợm thôi chứ không có giá trị thực tiễn.Thấy bảo không tới mức đó đâu cụ.
![]()
Today I learned I can run my very own DeepSeek R1 chatbot on just $6,000 of PC hardware and no megabucks Nvidia GPUs required
The catch is that it's only really fast enough to serve one user with semi-useful gibberish at a time.www.pcgamer.com
Để vài bữa rảnh em thử dựng lên xem sao.
Cứ đánh dấu nguồn, ví dụ đây là website viện hàn lâm, cho điểm cao. Không xin phép đâu vì nó không trình bày rõ ràng là nó copy. Hiện có 1 số website báo chí đòi Google trả tiền thôi.Liệu các dữ liệu đó nó dùng thuật toán thế nào để loại bớt cái linh tinh ko có ý nghĩa, có phải xin phép các nơi cung cấp nguồn DL không ? Sau khi có dữ liệu (được lọc rồi) thì nó huấn luyện máy thế nào để khi có người hỏi bất cứ vấn đề gì là nó trả lời ngay tắp lự (chưa nói đến KQ trả lời có chính xác hay không) ?
Về dữ liệu nguồn, với kiến thức phổ thông thì vào các trang miễn phí như wikipedia là có gần hết, thêm vài trang tin tức public nữa là cơ bản đủ để trả lời hầu hết các câu hỏi cần dữ liệu cập nhật. Đấy là về lý thuyết để trả lời trước tòa cho nó thuyết phục, còn thực tế chắc các công ty AI cũng phải đọc lậu khá nhiềuCác cụ cho em hỏi ngu ngơ 1 chút: Kể cả Chat GPT, hay DeepSeek hoặc bất kỳ con AI của ông nào ra đời thì dữ liệu nó lấy ở đâu ra mà nhiều như vậy ? Liệu các dữ liệu đó nó dùng thuật toán thế nào để loại bớt cái linh tinh ko có ý nghĩa, có phải xin phép các nơi cung cấp nguồn DL không ? Sau khi có dữ liệu (được lọc rồi) thì nó huấn luyện máy thế nào để khi có người hỏi bất cứ vấn đề gì là nó trả lời ngay tắp lự (chưa nói đến KQ trả lời có chính xác hay không) ?
và nói thêm với tòa là tôi thông minh nên sẽ tự nội suy được nhiều vấn đềVề dữ liệu nguồn, với kiến thức phổ thông thì vào các trang miễn phí như wikipedia là có gần hết, thêm vài trang tin tức public nữa là cơ bản đủ để trả lời hầu hết các câu hỏi cần dữ liệu cập nhật. Đấy là về lý thuyết để trả lời trước tòa cho nó thuyết phục, còn thực tế chắc các công ty AI cũng phải đọc lậu khá nhiều![]()
Phương pháp nó lấy dữ liệu thô thì tương tự SE (Gọi là Crawl - cào dữ liệu). Còn việc loại bỏ các linh tinh đi thì là công việc bắt buộc rồi cụ - Cái này dựa trên Định luật Zipf (Ông Zipf đưa ra vào năm 1949, cũng khá lâu rồi). Nó là 1 trong những khâu của chuẩn hóa dữ liệu. Dữ liệu chuẩn hóa sẽ đưa vào training. Dữ liệu càng sạch thì độ chính xác càng cao.Các cụ cho em hỏi ngu ngơ 1 chút: Kể cả Chat GPT, hay DeepSeek hoặc bất kỳ con AI của ông nào ra đời thì dữ liệu nó lấy ở đâu ra mà nhiều như vậy ? Liệu các dữ liệu đó nó dùng thuật toán thế nào để loại bớt cái linh tinh ko có ý nghĩa, có phải xin phép các nơi cung cấp nguồn DL không ? Sau khi có dữ liệu (được lọc rồi) thì nó huấn luyện máy thế nào để khi có người hỏi bất cứ vấn đề gì là nó trả lời ngay tắp lự (chưa nói đến KQ trả lời có chính xác hay không) ?
Mới ra mắt trước tết nên em tin deepseek sẽ còn tiềm năng phát triển . Anyway đúng như cụ nhận xét là con R1 chạy trên host bên US ngu hơn con R1 chạy trên web , em đang phải tìm phương án mua premium để nó đỡ lag .Bản chất của việc Deepseek bị lag là giá nó đang bán API là giá lỗ. Người dùng đông lên nó cháy cmn nó túi không có tiền để đốt tiếp. Mà cũng chưa có nhà đầu tư nào tin tưởng bơm tiền cho nó đốt. Nên cụ nào vẫn thích dùng Deepseek R1 mà không bị lag thì chỉ có dùng qua mấy thằng Mỹ nó đang host thôi (ví dụ Perplexity). Perplexity chuyến này lại kiếm đẫm vì chạy R1 vẫn rẻ hơn chạy o1. Mà giá của Perplexity nó thu đến $15/M tokens xài còn đốt tiền hơn mua ChatGPTplus.
Mà vẫn phải chấp nhận con R1 chạy qua host Mỹ thì ngu hơn chạy chính chủ trên web của Deepseek nhé. Vì mã nguồn mở, không độc quyền nên không thằng nào đầu tư tinh chỉnh tiếp. Có thế nào thì nó bào thế thôi.
Mời các cụ xem clip giải toán của 3 con ai Chat GPT, Gemini và deepseek ! Con Deep Seek này cũng ghê gớm đâtý các cụ:
https://youtube.com/shorts/pw1GiFEcQJM?si=fo5JcwG4zPGc365g
chắc nó mới sửa lại. AI mà cụ!
Sao nó vẫn sai được nhỉ? Hồi trước đã có cụ chỉ ra là nó sai nên nó tự nhận rồi. Nhưng giờ khi người khác hỏi nó lại sai tiếp, chẳng lẽ nó không nhận thức được cũng 1 vấn đề mà nhiều người hỏi khác nhau hay sao?
Cái này là đặc điểm của mô hình kiến trúc LLM (hay tương tự) mà các con AI này được tạo ra, bản chất của các mô hình LLM này là từ một tiêu đề ban đầu nó cứ thế sinh ra tiếp đoạn văn bản tiếp theo chứ không hẳn là nó biết tư duy.Sao nó vẫn sai được nhỉ? Hồi trước đã có cụ chỉ ra là nó sai nên nó tự nhận rồi. Nhưng giờ khi người khác hỏi nó lại sai tiếp, chẳng lẽ nó không nhận thức được cũng 1 vấn đề mà nhiều người hỏi khác nhau hay sao?
Chắc nó mới học từ deepseek
CỤ thử hỏi nó như này xem: