You are on page 1of 7

Here Are 10 Open-Source

Tools/Frameworks for Artificial


Intelligence
Here are 10 open-source tools/frameworks for today’s hot topic, AI.

TensorFlow

An open-source software library for Machine Intelligence.

TensorFlow™ is an open-source software library, which was originally developed


by researchers and engineers working on the Google Brain Team. TensorFlow is
for numerical computation using data flow graphs. Nodes in the graph represent
mathematical operations, while the graph edges represent the multidimensional
data arrays (tensors) communicated between them. The flexible architecture
allows you to deploy computation to one or more CPUs or GPUs in a desktop,
server, or mobile device with a single API.

TensorFlow provides multiple APIs. The lowest level API — TensorFlow Core —
provides you with complete programming control. The higher level APIs are built
on top of TensorFlow Core. These higher level APIs are typically easier to learn
and use than TensorFlow Core. In addition, the higher level APIs make
repetitive tasks easier and more consistent between different users. A high-level
API like tf.estimator helps you manage data sets, estimators, training, and
inference.

The central unit of data in TensorFlow is the tensor. A tensor consists of a set
of primitive values shaped into an array of any number of dimensions. A
tensor’s rank is its number of dimensions.

A few Google applications using tensor flow are:

RankBrain: A large-scale deployment of deep neural nets for search ranking on


www.google.com

Inception Image Classification Model: Baseline model and follow-on


research into highly accurate computer vision models, starting with the model
that won the 2014 Imagenet image classification challenge

SmartReply: Deep LSTM model to automatically generate email responses

Massively Multitask Networks for Drug Discovery: A deep neural network


model for identifying promising drug candidates by Google in association
with Stanford University.

On-Device Computer Vision for OCR: On-device computer vision model to do


optical character recognition to enable real-time translation

Apache SystemML

An optimal workplace for machine learning using big data.


SystemML, the machine-learning technology created at IBM, has reached one of
the top-level project status at the Apache Software Foundation and it’s a
flexible, scalable, machine learning system. Important characteristics are:

Algorithm customizability via R-like and Python-like languages.

Multiple execution modes, including Spark MLContext, Spark Batch, Hadoop


Batch, Standalone, and JMLC (Java Machine Learning Connector).

Automatic optimization based on data and cluster characteristics to ensure both


efficiency and scalability.

SystemML considered as SQL for Machine learning. Latest version (1.0.0) of


SystemML supports: Java 8+, Scala 2.11+, Python 2.7/3.5+, Hadoop 2.6+, and
Spark 2.1+.

It can be run on top of Apache Spark, where it automatically scales your data
line by line, determining whether your code should be run on the driver or an
Apache Spark cluster. Future SystemML developments include additional deep
learning with GPU capabilities such as importing and running neural network
architectures and pre-trained models for training.

Java Machine Learning Connector (JMLC) for SystemML

The Java Machine Learning Connector (JMLC) API is a programmatic interface


for interacting with SystemML in an embedded fashion. The primary purpose of
JMLC is as a scoring API, where your scoring function is expressed using
SystemML’s DML (Declarative Machine Learning) language. In addition to
scoring, embedded SystemML can be used for tasks such as unsupervised
learning (for example, clustering) in the context of a larger application running
on a single machine.

Caffe
A deep learning framework made with expression, speed, and modularity in

mind.

The Caffe project was initiated by Yangqing Jia during his Ph.D. at UC Berkeley
and then later developed by Berkeley AI Research (BAIR) and by community
contributors. It mostly focusses on convolutional networks for computer vision
applications. Caffe is a solid and popular choice for computer vision-related
tasks and you can download many successful models made by Caffe users from
the Caffe Model Zoo (link below) for out-of-the-box use.

Caffe Advantages

Expressive architecture encourages application and innovation. Models and


optimization are defined by configuration without hard-coding. Switch between
CPU and GPU by setting a single flag to train on a GPU machine then deploy to
commodity clusters or mobile devices.

Extensible code fosters active development. In Caffe’s first year, it has been
forked by over 1,000 developers and had many significant changes contributed
back.

Speed makes Caffe perfect for research experiments and industry deployment.
Caffe can process over 60M images per day with a single NVIDIA K40 GPU.

Community: Caffe already powers academic research projects, startup


prototypes, and even large-scale industrial applications in vision, speech, and
multimedia.
Berikut adalah 10 Alat / Kerangka Sumber Terbuka
untuk Kecerdasan Buatan
Berikut adalah 10 alat / kerangka kerja sumber terbuka untuk topik hangat
saat ini, AI.
TensorFlow
Pustaka perangkat lunak sumber terbuka untuk Intelijen Mesin.
TensorFlow ™ adalah pustaka perangkat lunak sumber terbuka, yang
awalnya dikembangkan oleh para peneliti dan insinyur yang bekerja di Tim
Otak Google. TensorFlow adalah untuk perhitungan numerik menggunakan
grafik aliran data. Nodes dalam grafik mewakili operasi matematika,
sedangkan tepi grafik mewakili susunan data multidimensi (tensor) yang
dikomunikasikan di antara mereka. Arsitektur fleksibel memungkinkan
Anda untuk menerapkan komputasi ke satu atau lebih CPU atau GPU di
desktop, server, atau perangkat seluler dengan satu API.
TensorFlow menyediakan banyak API. API level terendah - TensorFlow
Core - menyediakan Anda dengan kontrol pemrograman lengkap. API
tingkat yang lebih tinggi dibangun di atas TensorFlow Core. API tingkat
yang lebih tinggi ini biasanya lebih mudah dipelajari dan digunakan
daripada TensorFlow Core. Selain itu, API tingkat yang lebih tinggi
membuat tugas yang berulang lebih mudah dan lebih konsisten di antara
pengguna yang berbeda. API tingkat tinggi seperti tf.estimator membantu
Anda mengelola kumpulan data, estimator, pelatihan, dan penyimpulan.
Unit pusat data dalam TensorFlow adalah tensor. Sebuah tensor terdiri dari
satu set nilai primitif yang dibentuk menjadi array dari sejumlah dimensi.
Peringkat tensor adalah jumlah dimensinya.
Beberapa aplikasi Google yang menggunakan aliran tensor adalah:
RankBrain: Penyebaran jaring jaring dalam skala besar untuk peringkat
pencarian di www.google.com
Inception Image Classification Model: Model dasar dan penelitian lanjutan
ke dalam model penglihatan komputer yang sangat akurat, dimulai dengan
model yang memenangkan tantangan klasifikasi citra Imagenet 2014
SmartReply: Model LSTM dalam untuk menghasilkan tanggapan email
secara otomatis
Jaringan Multitask Besar-besaran untuk Penemuan Obat: Model jaringan
saraf dalam untuk mengidentifikasi calon obat yang menjanjikan oleh
Google dalam hubungannya dengan Universitas Stanford.
Visi Komputer Pada-Perangkat untuk OCR: Model visi komputer di
perangkat untuk melakukan pengenalan karakter optik untuk mengaktifkan
terjemahan real-time
Apache SystemML
Tempat kerja yang optimal untuk pembelajaran mesin menggunakan data
besar.
SystemML, teknologi pembelajaran mesin yang dibuat di IBM, telah
mencapai salah satu status proyek tingkat teratas di Apache Software
Foundation dan itu adalah sistem pembelajaran mesin yang fleksibel dan
dapat diskalakan. Karakteristik penting adalah:
Algoritma customizability via R-like dan Python-like languages.
Beberapa mode eksekusi, termasuk Spark MLContext, Spark Batch,
Hadoop Batch, Standalone, dan JMLC (Java Machine Learning
Connector).
Pengoptimalan otomatis berdasarkan data dan karakteristik kluster untuk
memastikan efisiensi dan skalabilitas.
SystemML dianggap sebagai SQL untuk pembelajaran Mesin. Versi
terbaru (1.0.0) dari dukungan SystemML: Java 8+, Scala 2.11+, Python 2.7
/ 3.5 +, Hadoop 2.6+, dan Spark 2.1+.
Ini dapat dijalankan di atas Apache Spark, di mana ia secara otomatis
menskalakan garis data Anda per baris, menentukan apakah kode Anda
harus dijalankan pada driver atau cluster Apache Spark. Pengembangan
SystemML di masa depan termasuk pembelajaran mendalam tambahan
dengan kemampuan GPU seperti mengimpor dan menjalankan arsitektur
jaringan syaraf dan model pra-dilatih untuk pelatihan.
Java Machine Learning Connector (JMLC) untuk SystemML
Java Machine Learning Connector (JMLC) API adalah antarmuka
terprogram untuk berinteraksi dengan SystemML dalam mode yang
disematkan. Tujuan utama JMLC adalah sebagai scoring API, di mana
fungsi penilaian Anda diekspresikan menggunakan bahasa SystemML
DML (Declarative Machine Learning). Selain skor, embedded SystemML
dapat digunakan untuk tugas-tugas seperti pembelajaran tanpa
pengawasan (misalnya, pengelompokan) dalam konteks aplikasi yang lebih
besar yang berjalan pada satu mesin.
Caffe
Kerangka pembelajaran mendalam yang dibuat dengan ekspresi,
kecepatan, dan modularitas dalam pikiran
Proyek Caffe dimulai oleh Yangqing Jia selama Ph.D. di UC Berkeley dan
kemudian dikembangkan oleh Berkeley AI Research (BAIR) dan oleh
kontributor komunitas. Ini sebagian besar memfokuskan pada jaringan
konvolusional untuk aplikasi visi komputer. Caffe adalah pilihan yang solid
dan populer untuk tugas-tugas terkait visi komputer dan Anda dapat
mengunduh banyak model sukses yang dibuat oleh pengguna Caffe dari
Kebun Binatang Model Caffe (tautan di bawah) untuk penggunaan di luar
kotak.
Caffe Advantages
Arsitektur ekspresif mendorong aplikasi dan inovasi. Model dan optimasi
ditentukan oleh konfigurasi tanpa hard-coding. Beralih antara CPU dan
GPU dengan menyetel satu bendera untuk dilatih pada mesin GPU
kemudian menyebar ke kluster komoditas atau perangkat seluler.
Kode Extensible memupuk perkembangan aktif. Di tahun pertama Caffe,
telah dicabangkan oleh lebih dari 1.000 pengembang dan banyak
perubahan signifikan yang disumbangkan kembali.
Kecepatan membuat Caffe sempurna untuk eksperimen penelitian dan
penyebaran industri. Caffe dapat memproses lebih dari 60 juta gambar per
hari dengan satu GPU NVIDIA K40.
Komunitas: Caffe sudah memberdayakan proyek penelitian akademis,
prototipe startup, dan bahkan aplikasi industri skala besar dalam visi,
ucapan, dan multimedia.

You might also like