AI開発のワークフローを大幅に高速化し、高めます。コンテキストに応じたリアルタイムデータ、データ品質のコントロール、および生産への短い経路により、概念実証から次のステップには数ヶ月ではなく、数時間で行くことができます。
データサイエンスワークフローのすべてのステップで、Cognite Data Fusion(CDF)は成功を支援する重要なツールです。
1.データ検出
リアルタイムのコンテキスト化されたデータへのアクセスにより、検索から発見という次のステップに進むことができます。SDK、Sparkデータソース、またはグラフィカルインターフェイスを介してデータにアクセスします。
2.前処理と機能の生成
事前生成された集計とSparkデータソースを使用して、前処理と機能の生成を高速化します。
3.物理シミュレーターの活用
特徴生成に物理シミュレーターを活用することにより、モデリングの問題の複雑さを根本的に軽減します。CDFは、いくつかの業界標準のシミュレータと接続するように構築されています。
4.モデリング
選択したプログラミング言語とモデリングフレームワークを使用します。CDFは、Google autoML、Datarobot、H20など、最新のすべてのautoMLフレームワークでも使用できます。
5.展開とスケジュール
Cognite Data Studioを使用して、モデルを迅速に実稼働に移行するか、任意のホスティング環境を使用します。
6.品質監視
モデルが依存するデータの品質監視を設定し、通知を受け取り、アクションをトリガーします。
7.モデルのスケーリング
コンテキスト化されたデータを使用して、1つの機器または状況から数千にモデルを迅速にスケーリングします。
8. 可視化し、通知し、フィードバックを集計します
迅速にダッシュボードと視覚化、トリガーの通知、およびフィードバックの集計して、データが必要な者に提供します。