Phân tích số liệu là gì

Mô tả công việc

Chuyên viên phân tích dữ liệu (Data Analyst) là người thực hiện các phân tích sâu dữ liệu (deep dive analytics) ở dạng đồ thị, biểu đồ, sơ đồ, bảng biểu và báo cáo; sau đó sử dụng các dữ liệu đó để xác định xu hướng và tạo mô hình dự đoán những gì có thể xảy ra trong tương lai.

Các công việc chính

  • Sử dụng các công cụ lắng nghe Internet để thu thập dữ liệu từ các nguồn tin tức và mạng xã hội
  • Phân tích dữ liệu và viết báo cáo:
    • Phân tích thông tin về thương hiệu và các vấn đề xã hội
    • Dự báo và nắm bắt xu hướng trong tương lai
    • Trình bày các nội dung trên bằng bảng số liệu, biểu đồ, bản đồ và đề xuất các hình thức minh hoạ hợp lý khác
    • Tối ưu các chiến dịch Marketing, Sales dựa trên dữ liệu đã thu thập được.
  • Báo cáo thường xuyên cho quản lý và tương tác trực tiếp với khách hàng về diễn biến các sự kiện liên quan tới thương hiệu khách hàng
  • Thực hiện các công việc khác được phân công.

KPI công việc

  • Tỷ lệ hoàn thành đúng deadline
  • Thời gian trung bình để xử lý dữ liệu
  • Số lượng báo cáo định kỳ

Yêu cầu công việc

  • Tốt nghiệp Đại học các ngành liên quan như Digital Marketing, Market Research, Toán, Khoa học máy tính, Quản trị thông tin, Công nghệ thông tin, Thống kê,...
  • Có ít nhất 3 năm kinh nghiệm tại vị trí tương đương
  • Kỹ năng sử dụng các công cụ phân tích dữ liệu và code cơ bản để xử lý các mô hình dự báo (predictive models)
  • Kỹ năng sử dụng các công cụ visualize để chuyển hóa dữ liệu thành graphics.
  • Kỹ năng chuyển hóa dữ liệu thành actionable insight.
  • Có kỹ năng phân tích sắc bén, khả năng thu thập, tổ chức, phân tích và phổ biến lượng lớn thông tin một cách chi tiết và chính xác
  • Kỹ năng lập kế hoạch, kiểm soát việc thực hiện kế hoạch.
  • Cẩn thận, kiên nhẫn, chịu khó, ham học hỏi, có tinh thần trách nhiệm
  • Ham học hỏi, trung thực, cẩn thận, nhạy bén với xu thế xã hội.

Năng lực liên quan

  • Knowledge - Hiểu về chuyên môn nghiệp vụ
  • Knowledge - Hiểu biết về lĩnh vực kinh doanh
  • Skill - Kỹ năng giao tiếp
  • Skill - Kỹ năng phân tích, xử lý tình huống và ra quyết định
  • Skill - Kỹ năng quản trị thay đổi
  • Skill - Tư duy tập trung vào kết quả
  • Skill - Kỹ năng làm việc nhóm
  • Skill - Kỹ năng tổ chức và quản lý thời gian
  • Skill - Năng lực giải trình
  • Skill - Tự học, tự trau dồi
  • Skill - Kỹ năng đối mặt với áp lực
  • Attitude - Tỉ mỉ, cẩn thận
  • Attitude - Bảo mật kinh doanh
  • Attitude - Bền bỉ, kiên trì
  • Attitude - Trung thực

Bộ câu hỏi phỏng vấn

  • Mô tả một ngày làm việc điển hình của Data Analyst.
  • Data Analyst (DA) và Business Analyst (BA) có gì giống và khác nhau?
  • Bạn có thường quá deadline mà vẫn chưa phân tích xong dữ liệu hay không? Lúc đó bạn sẽ xử lý như thế nào?
  • Điều mọi người thường hiểu lầm về Data Analyst là gì?
  • Bạn thường đưa ra quyết định như thế nào: dựa vào data-driven hay đơn giản là cảm tính?
  • Ở vị trí công việc cũ, bạn có thường phải làm việc với dữ liệu thô? Chúng mang lại cảm giác gì cho bạn?
  • Bạn có kinh nghiệm sử dụng các công cụ phân tích dữ liệu và công cụ visualize nào?
  • Bạn có thể làm việc với dữ liệu và máy tính tối đa bao nhiêu lâu một ngày?
  • Kể lại một lần bạn gặp phải sự cố trong phân tích dữ liệu. Bạn đã khắc phục sự cố đó như thế nào?

Ứng dụng kiến thức vào quản lý nguồn nhân lực với Base HRM+.

Bộ giải pháp quản trị nhân sự toàn diện dành cho Doanh Nghiệp. Ứng dụng những lý thuyết quản trị hiện đại vào xây dựng giải pháp nhân sự mang tính thực tiễn cao. Bộ giải pháp giúp Doanh Nghiệp từ những giải pháp cơ bản về quản trị thông tin nhân sự, chấm công Á tính lương cho đến các giải pháp quản trị mục tiêu, đánh giá và phát triển nhân sự.

Phân tích số liệu là gì

Phân tích dữ liệu lớn là gì?

Dữ liệu lớn mô tả các tập dữ liệu lớn đa dạng — có cấu trúc, phi cấu trúc và bán cấu trúc — liên tục được tạo ra ở tốc độ cao và với khối lượng lớn. Dữ liệu lớn thường được đo lường bằng terabyte hoặc petabyte. Một petabyte tương đương với 1.000.000 gigabyte. Nói cách khác, giả sử một bộ phim HD chứa khoảng 4 gigabyte dữ liệu. Một petabyte tương đương với 250.000 bộ phim. Tập dữ liệu lớn có thể chứa từ khoảng hàng trăm tới hàng nghìn đến hàng triệu petabyte.

Phân tích dữ liệu lớn là quá trình tìm các mẫu, xu hướng và mối quan hệ trong những tập dữ liệu khổng lồ. Những phân tích phức tạp này đòi hỏi các công cụ và công nghệ cụ thể, năng lực điện toán và kho lưu trữ dữ liệu hỗ trợ theo quy mô.

Phân tích dữ liệu lớn hoạt động như thế nào?

Phân tích dữ liệu lớn tuân theo năm bước để phân tích bất kỳ tập dữ liệu lớn nào:

1. Thu thập dữ liệu
2. Lưu trữ dữ liệu
3. Xử lý dữ liệu
4. Làm sạch dữ liệu
5. Phân tích dữ liệu

Thu thập dữ liệu

Bước này bao gồm việc xác định nguồn dữ liệu và thu thập dữ liệu từ những nguồn này. Việc thu thập dữ liệu tuân theo quá trình ETL hoặc ELT.

ETL – Trích xuất, chuyển đổi, tải
Trong ETL, trước tiên, dữ liệu đã tạo được chuyển đổi thành định dạng tiêu chuẩn và sau đó được tải vào kho lưu trữ.

ELT – Trích xuất, tải, chuyển đổi
Trong ELT, trước tiên, dữ liệu được tải vào kho lưu trữ và sau đó được chuyển đổi thành định dạng yêu cầu.

Lưu trữ dữ liệu

Dựa trên sự phức tạp của dữ liệu, dữ liệu có thể được di chuyển tới kho lưu trữ như kho dữ liệu hoặc hồ dữ liệu đám mây. Các công cụ nghiệp vụ thông minh có thể truy cập kho lưu trữ đó khi cần.

So sánh giữa hồ dữ liệu và kho dữ liệu

Kho dữ liệu là cơ sở dữ liệu được tối ưu hóa để phân tích dữ liệu quan hệ đến từ hệ thống giao dịch và ứng dụng kinh doanh. Cấu trúc dữ liệu và lược đồ được xác định trước để tối ưu hóa việc tìm kiếm và báo cáo nhanh. Dữ liệu sẽ được dọn dẹp, làm phong phú và biến đổi để đóng vai trò “nguồn thông tin sự thật duy nhất” mà người dùng có thể tin tưởng. Các ví dụ về dữ liệu bao gồm hồ sơ khách hàng và thông tin sản phẩm.

Hồ dữ liệu thì khác vì có thể lưu trữ cả dữ liệu có cấu trúc và phi cấu trúc mà không cần xử lý thêm. Cấu trúc của dữ liệu hoặc lược đồ không được xác định khi thu thập dữ liệu; tức là, bạn có thể lưu trữ mọi dữ liệu mà không cần thận trọng thiết kế, điều này đặc biệt hữu ích khi chưa xác định được mục đích sử dụng dữ liệu trong tương lai. Các ví dụ về dữ liệu bao gồm nội dung truyền thông xã hội, dữ liệu thiết bị IoT và dữ liệu phi quan hệ từ các ứng dụng di động.

Các tổ chức thường đòi hỏi cả hồ dữ liệu và kho dữ liệu để phân tích dữ liệu. AWS Lake Formation và Amazon Redshift có thể đáp ứng nhu cầu dữ liệu của bạn.

Xử lý dữ liệu

Khi đã có sẵn dữ liệu, dữ liệu phải được chuyển đổi và tổ chức để thu được kết quả chính xác từ các truy vấn phân tích. Hiện có các tùy chọn xử lý dữ liệu khác nhau để thực hiện bước này. Việc lựa chọn cách tiếp cận phụ thuộc vào tài nguyên điện toán và phân tích sẵn có để xử lý dữ liệu.

Xử lý tập trung
Toàn bộ quá trình xử lý diễn ra trên một máy chủ trung tâm chuyên dụng lưu trữ tất cả dữ liệu.

Xử lý phân tán
Dữ liệu được phân tán và lưu trữ trên các máy chủ khác nhau.

Xử lý lô dữ liệu
Các phần dữ liệu tích lũy theo thời gian và được xử lý theo lô.

Xử lý theo thời gian thực
Dữ liệu được xử lý liên tục, trong đó, các tác vụ điện toán hoàn thành trong vài giây.

Làm sạch dữ liệu

Quá trình làm sạch dữ liệu bao gồm việc xóa bất kỳ lỗi nào như trùng lặp, không nhất quán, dư thừa hoặc định dạng sai. Bước này cũng được sử dụng để lọc bất kỳ dữ liệu nào không mong muốn đối với quá trình phân tích.

Phân tích dữ liệu

Đây là bước chuyển đổi dữ liệu thô thành thông tin chuyên sâu hữu ích. Sau đây là bốn loại phân tích dữ liệu:

1. Phân tích mô tả
Các nhà khoa học dữ liệu phân tích dữ liệu để nắm bắt những sự kiện đã hoặc đang xảy ra trong môi trường dữ liệu. Đặc trưng của phương pháp này là sự trực quan hóa dữ liệu, chẳng hạn như bằng biểu đồ tròn, biểu đồ cột, đồ thị đường, bảng hoặc văn bản thuyết minh.

2. Phân tích chẩn đoán
Phân tích chẩn đoán là một quá trình phân tích chuyên sâu hoặc chi tiết dữ liệu để nắm được nguyên nhân khiến một sự kiện xảy ra. Đặc trưng của phương pháp này là các kỹ thuật như truy sâu, khám phá dữ liệu, khai thác dữ liệu và đối chiếu. Trong từng kỹ thuật này, nhiều hoạt động và thao tác biến đổi dữ liệu được sử dụng để phân tích dữ liệu thô.

3. Phân tích dự đoán
Phân tích dự đoán sử dụng dữ liệu lịch sử để đưa ra các dự báo chính xác về xu hướng trong tương lai. Đặc trưng của phương pháp này là các kỹ thuật như máy học, dự báo, so khớp mẫu và lập mô hình dự đoán. Trong từng kỹ thuật này, các máy tính được đào tạo để thiết kế ngược các kết nối nhân quả trong dữ liệu.

4. Phân tích theo quy định
Phân tích theo quy định đưa dữ liệu dự đoán lên một tầm cao mới. Phương pháp này không chỉ dự đoán sự kiện gì sẽ xảy ra mà còn đề xuất một phản ứng tối ưu cho kết quả đó. Nó có thể phân tích tác động tiềm ẩn của các lựa chọn khác nhau và đề xuất hướng hành động tốt nhất. Đặc trưng của phương pháp này là phân tích đồ thị, mô phỏng, xử lý sự kiện phức tạp, mạng nơ-ron và công cụ đề xuất.

Có những kỹ thuật phân tích dữ liệu khác nhau nào?

Nhiều kỹ thuật điện toán được sử dụng trong phân tích dữ liệu. Sau đây là một số kỹ thuật phổ biến nhất:

Kỹ thuật xử lý ngôn ngữ tự nhiên

Xử lý ngôn ngữ tự nhiên là công nghệ được sử dụng để giúp máy tính hiểu và phản hồi lại ngôn ngữ nói và viết của con người. Các nhà phân tích dữ liệu sử dụng kỹ thuật này để xử lý dữ liệu như ghi chú chép lời, lệnh thoại và tin nhắn trò chuyện.

Khai thác văn bản

Các nhà phân tích dữ liệu sử dụng kỹ thuật khai thác văn bản để xác định các xu hướng trong dữ liệu văn bản như email, dòng tweet, kết quả tìm kiếm và bài đăng trên blog. Kỹ thuật này có thể được sử dụng để sắp xếp nội dung tin tức, phản hồi từ khách hàng và email của khách.

Phân tích dữ liệu cảm biến

Phân tích dữ liệu cảm biến là thao tác kiểm tra dữ liệu do các cảm biến khác nhau tạo ra. Kỹ thuật này được sử dụng để bảo trì máy móc dự đoán, theo dõi lô hàng và các quá trình kinh doanh khác mà trong đó máy móc tạo ra dữ liệu.

Phân tích giá trị ngoại lai

Phân tích giá trị ngoại lai hay phát hiện bất thường xác định các điểm và sự kiện dữ liệu sai lệch so với phần còn lại của dữ liệu.

Có thể tự động hóa phân tích dữ liệu không?

Có, các nhà phân tích dữ liệu có thể tự động hóa và tối ưu hóa quá trình này. Phân tích dữ liệu tự động hóa là biện pháp thực hành sử dụng hệ thống máy tính để thực hiện các tác vụ phân tích mà gần như không có sự can thiệp của con người. Những cơ chế này có mức độ phức tạp khác nhau, từ những tập lệnh hoặc dòng mã đơn giản cho tới các công cụ phân tích dữ liệu thực hiện lập mô hình dữ liệu, khám phá tính năng và phân tích thống kê.

Ví dụ: một công ty an ninh mạng có thể sử dụng tính năng tự động hóa để thu thập dữ liệu từ một loạt các hoạt động web đa dạng, tiến hành phân tích sâu hơn và sau đó sử dụng khả năng trực quan hóa dữ liệu để hiển thị kết quả và hỗ trợ ra quyết định kinh doanh. 

Có thể thuê ngoài để phân tích dữ liệu không?

Có, công ty có thể nhờ đến trợ giúp từ bên ngoài để phân tích dữ liệu. Phân tích dữ liệu thuê ngoài cho phép đội ngũ quản lý và điều hành tập trung vào các hoạt động cốt lõi khác của doanh nghiệp. Các nhóm phân tích kinh doanh chuyên dụng là những chuyên gia trong lĩnh vực của mình; họ nắm rõ các kỹ thuật phân tích dữ liệu mới nhất và là những chuyên gia trong ngành quản lý dữ liệu. Tức là, họ có thể thực hiện phân tích dữ liệu hiệu quả hơn, xác định các mẫu và dự đoán thành công các xu hướng trong tương lai. Tuy nhiên, hoạt động chuyển giao kiến thức và bảo mật dữ liệu có thể khiến doanh nghiệp gặp phải nhiều thách thức khi thuê ngoài.

Phân tích dữ liệu cải thiện thông tin chuyên sâu về khách hàng

Phân tích dữ liệu có thể được tiến hành trên các tập dữ liệu từ nhiều nguồn dữ liệu khách hàng khác nhau như sau:

• Khảo sát khách hàng của bên thứ ba
• Bản ghi mua hàng của khách hàng
• Hoạt động truyền thông xã hội
• Cookie trên máy tính
• Số liệu thống kê trên trang web hoặc ứng dụng

Phân tích có thể tiết lộ thông tin ẩn như sở thích của khách hàng, trang phổ biến trên trang web, thời lượng khách hàng dành để duyệt xem thông tin, phản hồi từ khách hàng và hoạt động tương tác với các biểu mẫu trên trang web. Qua đó, các doanh nghiệp có thể phản hồi các nhu cầu của khách hàng một cách hiệu quả và tăng mức độ hài lòng của khách hàng.

Nghiên cứu điển hình: Cách Nextdoor sử dụng phân tích dữ liệu để cải thiện trải nghiệm khách hàng

Nextdoor là một trung tâm cộng đồng dành cho các kết nối đáng tin cậy và nhằm trao đổi thông tin, hàng hóa và dịch vụ hữu ích. Nhờ sử dụng sức mạnh của cộng đồng địa phương, Nextdoor giúp mọi người có một cuộc sống hạnh phúc và ý nghĩa hơn. Nextdoor sử dụng giải pháp phân tích Amazon để đo lường mức độ tương tác của khách hàng và hiệu quả từ đề xuất của mình. Phân tích dữ liệu cho phép họ giúp khách hàng xây dựng kết nối tốt hơn và xem thêm nội dung liên quan theo thời gian thực.

Phân tích dữ liệu cung cấp thông tin cho các chiến dịch tiếp thị hiệu quả

Nhờ phân tích dữ liệu, bạn không cần phỏng đoán khi thực hiện tiếp thị, phát triển sản phẩm, sáng tạo nội dung và dịch vụ khách hàng. Phân tích dữ liệu cho phép các công ty ra mắt nội dung mục tiêu và tinh chỉnh nội dung bằng cách phân tích dữ liệu theo thời gian thực. Phân tích dữ liệu cũng cung cấp thông tin chuyên sâu có giá trị về hiệu quả của các chiến dịch tiếp thị. Mục tiêu cần nhắm tới, thông điệp và nội dung quảng cáo đều có thể được chỉnh sửa dựa trên phân tích theo thời gian thực. Phân tích có thể tối ưu hóa tiếp thị để tăng tỷ lệ chuyển đổi và giảm lãng phí vào quảng cáo.

Nghiên cứu điển hình: Cách Zynga sử dụng phân tích dữ liệu để nâng cao các chiến dịch tiếp thị

Zynga là một trong những công ty trò chơi trên di động thành công nhất thế giới với những trò chơi nổi đình đám bao gồm Words With Friends, Zynga Poker và FarmVille. Đã có hơn một tỷ người dùng trên khắp thế giới cài đặt những trò chơi này. Doanh thu của Zynga đến từ các giao dịch mua hàng trong ứng dụng, nên họ phân tích hành động của người chơi trong ứng dụng theo thời gian thực bằng cách sử dụng Phân tích dữ liệu Amazon Kinesis để lên kế hoạch cho các chiến dịch tiếp thị trong trò chơi hiệu quả hơn.
 

Phân tích dữ liệu tăng hiệu quả hoạt động

Phân tích dữ liệu có thể giúp các công ty tinh giản quá trình, giảm thất thoát và tăng doanh thu. Lịch trình bảo trì dự đoán, bảng phân công nhân viên được tối ưu hóa và quản lý chuỗi cung ứng hiệu quả có thể cải thiện hiệu suất kinh doanh theo cấp số nhân.

Nghiên cứu điển hình: Cách BT Group sử dụng phân tích dữ liệu để tinh giản hoạt động

BT Group là nhà cung cấp mạng và viễn thông hàng đầu tại Vương quốc Anh, phục vụ khách hàng ở 180 quốc gia. Nhóm hỗ trợ mạng của BT Group sử dụng Phân tích dữ liệu Amazon Kinesis để xem các cuộc gọi theo thời gian thực được thực hiện qua mạng của họ trên khắp Vương quốc Anh. Các kỹ sư hỗ trợ mạng và nhà phân tích lỗi sử dụng hệ thống phân tích đó để phát hiện, phản ứng và giải quyết thành công các vấn đề mạng.

Nghiên cứu điển hình: Cách Flutter sử dụng phân tích dữ liệu để tăng tốc hoạt động trò chơi

Flutter Entertainment là một trong những nhà cung cấp trò chơi và thể thao trực tuyến lớn nhất thế giới. Họ mang trên mình sứ mệnh mang niềm vui giải trí đến với hơn 14 triệu khách hàng một cách an toàn, có trách nhiệm và bền vững. Trong vài năm qua, Flutter đã thu được ngày càng nhiều dữ liệu từ hầu hết các hệ thống nguồn. Thách thức hiện tại mà họ gặp phải bắt nguồn từ yếu tố khối lượng kết hợp với độ trễ. Amazon Redshift giúp Flutter điều chỉnh quy mô theo kịp nhu cầu ngày càng tăng nhưng vẫn mang lại trải nghiệm người dùng cuối nhất quán.

Phân tích dữ liệu cung cấp thông tin cho quá trình phát triển sản phẩm

Các tổ chức sử dụng phân tích dữ liệu cho việc xác định và ưu tiên các tính năng mới để phát triển sản phẩm. Họ có thể phân tích các yêu cầu từ khách hàng, phân phối nhiều tính năng hơn trong khoảng thời gian ngắn hơn và ra mắt các sản phẩm mới nhanh hơn.

Nghiên cứu điển hình: Cách GE sử dụng phân tích dữ liệu để tăng tốc quá trình phân phối sản phẩm

GE Digital là công ty con của General Electric. GE Digital có nhiều sản phẩm và dịch vụ phần mềm trong một số ngành dọc khác nhau. Một sản phẩm có tên là Proficy Manufacturing Data Cloud. Amazon Redshift tiếp lực cho GE Digital cải thiện mạnh mẽ quá trình chuyển đổi dữ liệu và độ trễ dữ liệu để họ có thể phân phối nhiều tính năng hơn cho khách hàng của mình. 

Phân tích dữ liệu hỗ trợ điều chỉnh quy mô hoạt động dữ liệu

Phân tích dữ liệu đưa khả năng tự động hóa vào một số tác vụ dữ liệu như di chuyển, chuẩn bị, báo cáo và tích hợp. Nhờ đó, các tác vụ thủ công kém hiệu quả bị loại bỏ, đồng thời giảm thời gian cũng như số giờ làm việc cần thiết để hoàn thành hoạt động dữ liệu. Điều này hỗ trợ quá trình điều chỉnh quy mô và cho phép bạn mở rộng ý tưởng mới một cách nhanh chóng.

Nghiên cứu điển hình: Cách FactSet sử dụng phân tích dữ liệu để tinh giản quá trình tích hợp với khách hàng

FactSet mang trên mình sứ mệnh trở thành nền tảng mở hàng đầu cho cả nội dung và phân tích. Hoạt động di chuyển dữ liệu liên quan đến các quá trình đồ sộ, một số thành viên trong nhóm khác nhau từ phía khách hàng và một số cá nhân ở phía FactSet. Bất cứ khi nào nảy sinh vấn đề, rất khó để tìm ra giai đoạn nào của quá trình di chuyển dữ liệu đã gặp trục trặc. Amazon Redshift đã giúp tinh giản quá trình đó và trợ lực cho khách hàng của FactSet để điều chỉnh quy mô nhanh hơn, thu về nhiều dữ liệu hơn để đáp ứng nhu cầu của họ. 

AWS có thể trợ giúp như thế nào đối với việc phân tích dữ liệu?

AWS cung cấp các dịch vụ phân tích dữ liệu toàn diện, bảo mật, quy mô linh hoạt và tiết kiệm chi phí. Các dịch vụ phân tích của AWS phù hợp với mọi nhu cầu phân tích dữ liệu, đồng thời cho phép các tổ chức thuộc mọi quy mô và lĩnh vực làm mới lại công việc kinh doanh của họ bằng dữ liệu. AWS cung cấp các dịch vụ được xây dựng có chủ đích mang đến tỷ lệ hiệu suất-giá tốt nhất: di chuyển dữ liệu, kho lưu trữ dữ liệu, hồ dữ liệu, phân tích dữ liệu lớn, máy học và mọi dịch vụ liên quan.

• Phân tích dữ liệu Amazon Kinesis là cách tinh giản để chuyển đổi và phân tích dữ liệu truyền trực tiếp theo thời gian thực với Apache Flink. Dịch vụ này cung cấp các hàm tích hợp để lọc, tổng hợp và chuyển đổi dữ liệu truyền trực tiếp để phân tích nâng cao.

• Amazon Redshift cho phép bạn truy vấn và kết hợp hàng exabyte dữ liệu có cấu trúc và bán cấu trúc trên kho dữ liệu, cơ sở dữ liệu hoạt động và hồ dữ liệu.

• Amazon QuickSight là dịch vụ nghiệp vụ thông minh (BI) được xây dựng cho đám mây với quy mô linh hoạt, phi máy chủ, có thể nhúng, được máy học hỗ trợ. Nhờ sử dụng QuickSight, bạn có thể dễ dàng tạo và phát hành các bảng điều khiển BI tương tác bao gồm thông tin chuyên sâu được máy học hỗ trợ.

• Dịch vụ OpenSearch của Amazon giúp bạn dễ dàng thực hiện phân tích bản ghi tương tác, giám sát ứng dụng theo thời gian thực, tìm kiếm trên trang web, v.v..

Bạn có thể cùng chúng tôi bắt đầu hành trình chuyển đổi kỹ thuật số bằng cách sau:

• Phòng thực hành dữ liệu AWS – Điểm tương tác kỹ thuật chung giữa khách hàng và tài nguyên kỹ thuật của AWS để tăng tốc các sáng kiến dữ liệu và phân tích.

• Chương trình AWS D2E – Chương trình hợp tác với AWS để di chuyển nhanh hơn với độ chính xác cao hơn và phạm vi lớn hơn rất nhiều.