Confluent Luncurkan Fitur Permudah Integrasi Model AI dan Data

Sabtu, 04 Mei 2024 – 15:14 WIB
Confluent mengumumkan AI Model Inference, sebuah fitur yang akan hadir di Confluent Cloud untuk Apache Flink untuk mempermudah Integrasi Model AI dan Data. Foto: source for jpnn

jpnn.com, JAKARTA - Confluent, Inc (NASDAQ:CFLT), pionir streaming data, mengumumkan AI Model Inference, sebuah fitur yang akan hadir di Confluent Cloud untuk Apache Flink, guna memungkinkan perusahaan untuk dengan mudah memasukkan ML ke dalam pipeline data.

Confluent memperkenalkan Confluent Platform untuk Apache Flink, distribusi Flink yang memungkinkan pemrosesan streaming di lingkungan lokal maupun hibrida dengan dukungan dari para ahli Flink perusahaan.

BACA JUGA: Confluent Hadirkan Cloud untuk Apache Flink, Sederhanakan Pemrosesan Streaming Terkelola

Confluent juga meluncurkan clusters Freight, jenis cluster baru untuk Confluent Cloud yang menyediakan cara yang hemat biaya untuk menangani kasus penggunaan bervolume besar yang tidak sensitif terhadap waktu, seperti data logging atau telemetri.

AI Model Inference menyederhanakan pembuatan dan peluncuran aplikasi AI dan ML

BACA JUGA: Confluent Kenalkan Accelerate with Confluent, Program Baru untuk Para Sistem Integrator

AI Generatif membantu organisasi berinovasi lebih cepat dan memberikan pengalaman pelanggan yang lebih disesuaikan. Beban kerja AI membutuhkan data yang baru dan kaya konteks untuk memastikan model yang mendasari menghasilkan output dan hasil yang akurat bagi bisnis untuk membuat keputusan yang tepat berdasarkan informasi terkini yang tersedia.

Namun, developer sering kali harus menggunakan beberapa alat dan bahasa untuk bekerja dengan model AI dan jalur pemrosesan data, yang menyebabkan beban kerja yang kompleks dan terfragmentasi.

BACA JUGA: Confluent Migration Accelerator Bantu Permudah Migrasi Platform Data Streaming

Hal ini dapat menyulitkan dalam memanfaatkan data terbaru dan relevan untuk pengambilan keputusan, sehingga menyebabkan kesalahan atau inkonsistensi dan mengorbankan keakuratan dan keandalan wawasan yang digerakkan oleh AI.

Masalah-masalah ini dapat memakan waktu dalam pengembangan dan kesulitan dalam memelihara dan meningkatkan skala aplikasi AI.

Dengan AI Model Inference di Confluent Cloud untuk Apache Flink, organisasi dapat menggunakan pernyataan SQL sederhana dari dalam Apache Flink untuk melakukan panggilan ke mesin AI, termasuk OpenAI, AWS SageMaker, GCP Vertex, dan Microsoft Azure. Kini, perusahaan dapat mengatur tugas pembersihan dan pemrosesan data dalam satu platform.

“Apache Kafka dan Flink adalah penghubung penting untuk mendorong pembelajaran mesin dan aplikasi kecerdasan buatan dengan data yang paling tepat waktu dan akurat,” ujar Chief Product Officer di Confluent Shaun Clowes.

“Inferensi Model AI Confluent menghilangkan kerumitan yang ada saat menggunakan data streaming untuk pengembangan AI dengan memungkinkan organisasi berinovasi lebih cepat dan memberikan pengalaman pelanggan yang kuat.”

AI Model Inference memungkinkan perusahaan untuk:
• Menyederhanakan pengembangan AI dengan menggunakan SQL syntax yang sudah dikenal untuk bekerja secara langsung dengan model AI/ML, sehingga mengurangi kebutuhan akan alat dan bahasa khusus.
• Menetapkan koordinasi yang lancar antara pemrosesan data dan alur kerja AI untuk meningkatkan efisiensi dan mengurangi kompleksitas operasional.
• Memungkinkan pengambilan keputusan berbasis AI yang akurat dan real-time dengan memanfaatkan data streaming kontekstual yang baru.

“Memanfaatkan data kontekstual yang baru sangat penting untuk melatih dan menyempurnakan model AI dan untuk digunakan pada saat pengambilan keputusan guna meningkatkan akurasi dan relevansi hasil,” ujar Stewart Bond, Vice President, Data Intelligence and Integration Software, IDC.

Organisasi perlu meningkatkan efisiensi pemrosesan AI dengan menyatukan integrasi data dan jalur pemrosesan dengan model AI.

Flink sekarang dapat memperlakukan model dasar sebagai sumber daya kelas satu, memungkinkan penyatuan pemrosesan data waktu nyata dengan tugas-tugas AI untuk merampingkan alur kerja, meningkatkan efisiensi, dan mengurangi kompleksitas operasional.

"Kemampuan ini memberdayakan organisasi untuk membuat keputusan berbasis AI yang akurat dan real-time berdasarkan data streaming terkini dan relevan sekaligus meningkatkan kinerja dan nilai,” ujarnya.

Dukungan untuk AI Model Inference saat ini tersedia dalam akses awal untuk pelanggan tertentu. Pelanggan dapat mendaftar untuk mendapatkan akses lebih awal untuk mempelajari lebih lanjut tentang penawaran ini.

Confluent Platform untuk Apache Flink® memungkinkan pemrosesan aliran di cloud pribadi dan lingkungan lokal
Banyak organisasi yang mencari solusi hybrid untuk melindungi beban kerja yang lebih sensitif.

Dengan Confluent Platform untuk Apache Flink, distribusi Flink yang didukung penuh oleh Confluent, pelanggan dapat dengan mudah memanfaatkan pemrosesan stream untuk beban kerja on-prem atau private cloud dengan dukungan para ahli secara jangka panjang. Apache Flink dapat digunakan bersama-sama dengan Confluent Platform dengan perubahan minimal pada pekerjaan dan arsitektur Flink yang sudah ada.

Platform Confluent untuk Apache Flink dapat membantu organisasi:
1. Meminimalkan risiko dengan dukungan terpadu Flink dan Kafka serta panduan ahli dari para pakar terkemuka di industri streaming data.
2. Dapatkan bantuan tepat waktu dalam memecahkan masalah dan menyelesaikan masalah, sehingga mengurangi dampak gangguan operasional pada aplikasi yang sangat penting.
3. Memastikan bahwa aplikasi pemrosesan streaming aman dan selalu diperbarui dengan perbaikan bug dan kerentanan di luar siklus.

Dengan Kafka dan Flink yang tersedia di platform streaming data lengkap Confluent, organisasi dapat memastikan integrasi dan kompatibilitas yang lebih baik di antara teknologi dan menerima dukungan komprehensif untuk streaming beban kerja di semua lingkungan.

Tidak seperti open source Apache Flink yang hanya mendukung dua rilis terbaru, Confluent menawarkan dukungan selama tiga tahun untuk setiap rilis Confluent Platform for Apache Flink sejak diluncurkan, menjamin operasi tanpa gangguan dan ketenangan pikiran.

Platform Confluent untuk Apache Flink akan tersedia untuk pelanggan Confluent akhir tahun ini. Auto-scaling Freight clusters yang baru menawarkan lebih banyak efisiensi biaya dalam skala besar.

Banyak organisasi menggunakan Confluent Cloud untuk memproses data pencatatan dan telemetri.

Kasus penggunaan ini melibatkan sejumlah besar data bisnis penting tetapi sering kali tidak terlalu sensitif terhadap latensi karena biasanya dimasukkan ke dalam mesin pengindeksan atau agregasi batch.

Untuk membuat kasus penggunaan umum ini lebih hemat biaya bagi pelanggan, Confluent memperkenalkan cluster Freight-tipe cluster tanpa server baru dengan biaya hingga 90 persen lebih rendah untuk kasus penggunaan berkinerja tinggi dengan persyaratan latensi yang longgar.

Didukung oleh CKU Elastis, Freight clusters secara otomatis menyesuaikan skala berdasarkan permintaan tanpa perlu perencanaan ukuran atau kapasitas secara manual, sehingga memungkinkan perusahaan meminimalkan biaya operasional dan mengoptimalkan biaya dengan hanya membayar sumber daya yang digunakan saat dibutuhkan.

Kluster pengangkutan tersedia dalam akses awal di wilayah AWS tertentu. Pelanggan dapat mendaftar untuk mendapatkan akses lebih awal untuk mempelajari lebih lanjut tentang penawaran ini.

Sumber tambahan
• Mulai uji coba gratis Confluent Cloud - Tidak perlu kartu kredit
• Baca di sini untuk informasi lebih lanjut tentang streaming data untuk AI real-time
• Pelajari lebih lanjut tentang Apache Flink

Karena roadmap kami dapat berubah di masa mendatang, fitur-fitur yang disebutkan di sini dapat berubah, mungkin tidak tersedia tepat waktu, atau tidak tersedia sama sekali. Informasi ini bukan merupakan komitmen untuk memberikan fungsionalitas apa pun dan pelanggan harus membuat keputusan pembelian berdasarkan fitur yang saat ini tersedia.(ray/jpnn)


Redaktur & Reporter : Budianto Hutahaean

Silakan baca konten menarik lainnya dari JPNN.com di Google News

Terpopuler