Rabu, 05 Desember 2018

Artikel yang membahas seputar SPK (Sistem Pengambilan Keputusan)


1. Pengertian Bid Data

Big Data  adalah istilah umum untuk segala kumpulan himpunan data dalam jumlah yang sangat besar dan kompleks sehingga menjadikannya sulit untuk ditangani atau di proses jika hanya menggunakan manajemen basis data biasa atau aplikasi pemroses data tradisional.   

Big Data menjamin pemrosesan solusi data dengan varian baru maupun yang sudah ada untuk memberikan manfaat nyata bagi bisnis. Namun pengolahan data dengan ukuran dan kompleksitas besar tetap sekedar solusi teknologi kecuali jika dikaitkan dengan tujuan bisnis.

Hal terpenting dari Big Data bukanlah sekedar kemampuan teknis untuk mengolah data melainkan maanfaat yang dapat disadari oleh perusahaan dengan menggunakan Big Data Analytics Termilogi Big Data diyakini berasal datri perusahaan pencariaan web yang mengolah data dengan gregasi yang terdistribusi sangat besar dan tidak terstruktur.


2. UnitedHealthcare: Fraud, Waste,and Abuse

Saat ini setidaknya 10% dari pembayaran asuransi Kesehatan terkait dengan klaim palsu. Di seluruh dunia kasus ini diperkirakan mencapai nilai miliaran dolar. Klaim palsu bukanlah masalah baru, namun kompleksitas kecurangan asuransi tampaknya meningkat secara eksponensial sehingga menyulitkan perusahaan asuransi kesehatan untuk menghadapinya.

United Health Care adalah sebuah perusahaan asuransi yang memberikan manfaat dan layanan kesehatan kepada hampir 51 juta orang. Perusahaan ini menjalin kerja sama dengan lebih dari 850.000 orang tenaga kesehatan dan sekitar 6.100 rumah sakit di seluruh negeri. Payment Integrity group/divisi integritas pembayaran mereka memiliki tugas untuk memastikan bahwa klaim dibayar dengan benar dan tepat waktu. Sebelumnya pendekatan mereka untuk mengelola lebih dari satu juta klaim per hari (sekitar 10 TB data tiap harinya) bersifat ad hoc, sangat terikat oleh aturan, serta terhambat oleh data yang terpisah-pisah. Solusi yang diambil oleh United Health Care adalah pendekatan dual mode, yang berfokus pada alokasi tabungan sekaligus menerapkan inovasi untuk terus memanfaatkan teknologi terbaru.

Dalam hal pengelolaan tabungan, divisi tersebut membuat “pabrik” analisis prediktif di mana mereka mengidentifikasi klaim yang tidak akurat secara sistematis dan tepat. Saat ini Hadoop merupakan data framework berplatform tunggal yang dilengkapi dengan tools untuk menganalisa informasi dari klaim, resep, plan peserta, penyedia layanan kesehatan yang dikontrak, dan hasil review klaim terkait. Mereka mengintegrasikan semua data dari beberapa silo di seluruh bisnis, termasuk lebih dari 36 aset data. Saat ini mereka memiliki banyak model prediktif (PCR, True Fraud, Ayasdi, dll.) yang menyediakan peringkat provider yang berpotensi melakukan kecurangan, sehingga mereka dapat mengambil tindakan yang lebih terarah dan sistematis. 


3.  Liaison Technologies: Streaming System of Record for Healthcare

Liaison Technologies menyediakan solusi berbasis cloud untuk membantu organisasi dalam mengintegrasikan, mengelola, dan mengamankan data di seluruh perusahaan. Salah satu solusi vertikal yang mereka berikan adalah untuk industri kesehatan dan life science, yang harus menjawab dua tantangan : memenuhi persyaratan HIPAA dan mengatasi pertumbuhan format dan representasi data.

Dengan MapR Stream, permasalahan data lineage dapat terpecahkan karena stream menjadi sebuah SOR (System of Record) dengan berfungsi sebagai log yang infinite dan immutable dari setiap perubahan data. Tantangan kedua, yaitu format dan representasi data, bisa digambarkan dengan contoh berikut: rekam medis pasien dapat dilihat dengan beberapa cara yang berbeda (dokumen, grafik, atau pencarian) oleh pengguna yang berbeda, seperti perusahaan farmasi, rumah sakit, klinik, atau dokter.

Dengan melakukan streaming terhadap perubahan data secara real-time ke basis data, grafik, dan basis data MapR-DB, HBase, MapR-DB JSON, pengguna akan selalu mendapatkan data paling mutakhir dalam format yang paling sesuai.


4. Teknologi Hadoop untuk Pemantauan Kondisi Vital Pasien

Beberapa rumah sakit di seluruh dunia telah menggunakan Hadoop untuk membantu stafnya bekerja secara efisien dengan Big Data. Tanpa Hadoop, sebagian besar sistem layanan kesehatan hampir tidak mungkin menganalisis data yang tidak terstruktur. 

Children's Healthcare of Atlanta merawat lebih dari 6.200 anak di unit ICU mereka. Rata-rata durasi tinggal di ICU Pediatrik bervariasi dari satu bulan sampai satu tahun. Children's Healthcare of Atlanta menggunakan sensor di samping tempat tidur yang membantu mereka terus melacak kondisi vital pasien seperti tekanan darah, detak jantung dan pernafasan. Sensor ini menghasilkan data yang sangat besar, dan sistem yang lama tidak mampu untuk menyimpan data tersebut lebih dari 3 hari karena terkendala biaya storage. Padahal rumah sakit ini perlu menyimpan tanda-tanda vital tersebut untuk dianalisa. Jika ada perubahan pola, maka perlu ada alert untuk tim dokter dan asisten lain.

Sistem tersebut berhasil diimplementasikan dengan menggunakan komponen ekosistem Hadoop : Hive, Flume, Sqoop, Spark, dan Impala. Setelah keberhasilan project tersebut, project berbasis Hadoop selanjutnya yang mereka lakukan adalah riset mengenai asma dengan menggunakan data kualitas udara selama 20 tahun dari EPA (Environment Protection Agency). Tujuannya: mengurangi kunjungan IGD dan rawat inap untuk kejadian terkait asma pada anak-anak.


5. Hadoop dalam Pengobatan Kanker dan Genomics

Salah satu alasan terbesar mengapa kanker belum dapat dibasmi sampai sekarang adalah karena kanker bermutasi dalam pola yang berbeda dan bereaksi dengan cara yang berbeda berdasarkan susunan genetik seseorang. Oleh karena itu, para peneliti di bidang onkologi menyatakan bahwa untuk menyembuhkan kanker, pasien perlu diberi perawatan yang disesuaikan dengan jenis kanker berdasarkan genetika masing-masing pasien.

Ada sekitar 3 miliar pasangan nukleotida yang membentuk DNA manusia, dan diperlukan sejumlah besar data untuk diorganisir secara efektif jika kita ingin melakukan analisis. Teknologi big data, khususnya Hadoop dan ekosistemnya memberikan dukungan yang besar untuk paralelisasi dan proses pemetaan DNA.

David Cameron, Perdana Menteri Inggris telah mengumumkan dana pemerintah sebesar £ 300 juta pada bulan Agustus, 2014 untuk proyek 4 tahun dengan target memetakan 100.000 genom manusia pada akhir tahun 2017 bekerja sama dengan perusahaan Bioteknologi Amerika Illumina dan Genomics Inggris. Tujuan utama dari proyek ini adalah memanfaatkan big data dalam dunia kesehatan untuk mengembangkan personalized medicine bagi pasien kanker.

Arizona State University mengadakan sebuah proyek penelitian yang meneliti jutaan titik di DNA manusia untuk menemukan variasi penyebab kanker sedang berlangsung. Proyek ini merupakan bagian dari Complex Adaptive Systems Initiative (CASI), yang mendorong penggunaan teknologi untuk menciptakan solusi bagi permasalahan dunia yang kompleks. Dengan menggunakan Apache Hadoop, tim peneliti universitas dapat memeriksa variasi dalam jutaan lokasi DNA untuk mengidentifikasi mekanisme kanker dan bagaimana jaringan berbagai gen mendorong kecenderungan dan efek kanker pada individu. "Proyek kami memfasilitasi penggunaan data genomik berskala besar, sebuah tantangan bagi semua institusi penelitian yang menangani pecision medicine," kata Jay Etchings, direktur komputasi riset ASU. Ekosistem Hadoop dan struktur data lake terkait menghindarkan setiap peneliti dan pengguna klinis untuk mengelola sendiri jejak data genomik yang besar dan kompleks. 






Senin, 03 Desember 2018

Artikel yang membahas Big Data



1. Apa itu “Big Data” ??

Big Data  adalah istilah umum untuk segala kumpulan himpunan data dalam jumlah yang sangat besar dan kompleks sehingga menjadikannya sulit untuk ditangani atau di proses jika hanya menggunakan manajemen basis data biasa atau aplikasi pemroses data tradisional.

Big Data menjamin pemrosesan solusi data dengan varian baru maupun yang sudah ada untuk memberikan manfaat nyata bagi bisnis. Namun pengolahan data dengan ukuran dan kompleksitas besar tetap sekedar solusi teknologi kecuali jika dikaitkan dengan tujuan bisnis.

Hal terpenting dari Big Data bukanlah sekedar kemampuan teknis untuk mengolah data melainkan manfaat yang dapat disadari oleh perusahaan dengan menggunakan Big Data Analytics Terminologi Big Data diyakini berasal dari perusahaan pencarian web yang mengolah data dengana gregasi yang terdistribusi sangat besar dan tidak terstruktur.
  

2. Sejarah dan perkembangannya

Sekitar tahun 2005, orang mulai menyadari bahwa ada banyak data yang dihasilkan pengguna melalui Facebook, YouTube, dan layanan online lainnya. Hadoop, sebuah open-source software untuk mengumpulkan dan menganalisa data dikembangkan pada tahun yang sama. NoSQL juga mulai mendapatkan popularitas selama ini.

Pengembangan software open-source untuk data, seperti Hadoop (dan yang lebih baru, Spark) memiliki peran penting dalam pertumbuhan big data karena mereka membuat data besar lebih mudah digunakan dan lebih murah untuk disimpan. Pada tahun-tahun sejak saat itu, volume big data terus meningkat. Pengguna masih menghasilkan data dalam jumlah besar — ​​tetapi itu bukan hanya manusia yang melakukannya.

Dengan munculnya Internet of Things (IoT), lebih banyak objek dan perangkat terhubung ke internet. Produsen pun melakukan pengumpulan data tentang pola penggunaan pelanggan dan kinerja produk. Munculnya machine learning juga telah menghasilkan lebih banyak data.


3. Tantangan dalam Big Data

Meskipun big data memberi banyak kemudahan, bukan berarti tidak ada tantangan dalam menggunakannya. Salah satu kesalahan yang sering terjadi adalah perusahaan atau organisasi hanya menggunakan data tanpa melibatkan manusia. Padahal untuk bisa menggunakan data tersebut dengan baik dan benar, perlu campur tangan manusia untuk mempelajarinya.
Yang pertama perlu diingat, big data memiliki jumlah yang besar. Meskipun sudah ada tools yang bisa membantu Anda untuk menyimpan data-data ini, volume data terus meningkat setiap tahunnya. Masih banyak organisasi yang kesulitan menampung data-datanya.

Tidak hanya untuk ditampung, data-data ini juga perlu diolah. Untuk mengolah data agar data-data yang Anda miliki sudah bersih atau sesuai dengan kebutuhan klien dan organisasi membutuhkan banyak pekerjaan. Data scientist menghabiskan 50-80% waktu mereka untuk menganalisa dan mempersiapkan data agar bisa digunakan.

Akhirnya, teknologi big data terus berubah dengan sangat cepat. Beberapa tahun yang lalu, Apache Hadoop adalah teknologi populer yang digunakan untuk menangani data besar. Kemudian Apache Spark diperkenalkan pada tahun 2014. Saat ini, kombinasi dari dua software ini tampaknya merupakan pendekatan terbaik. Mengikuti teknologi big data masih menjadi suatu tantangan berkelanjutan baik untuk individual maupun organisasi.


4. Pendidikan dengan Big Data

Big Data bisa menjadi sangat bermanfaat bagi dunia pendidikan, sudah banyak sekolah dan lembaga pendidikan di berbagai negara maju menggunakannya untuk mengolah data-data dan informasi mengenai siswa dengan cepat. Selain itu, big data dapat membantu pendidik menemukan hal-hal seperti seberapa baik siswa belajar, serta laporan kehadiran siswa. 

Setiap tahun, sekolah membuka pendaftaran baru bagi siswa maupun guru baru yang ingin mendaftar, menjadi guru baru memiliki tantangan tersendiri, tantangan utama yang dihadapi para guru adalah menyesuaikan pengajaran mereka terhadap siswa-siswa yang berbeda karakternya, yang masing-masing belajar dengan pemahaman mereka dan metode yang mereka pahami sendiri. 

Di sini, Big Data bisa membantu menempatkan sistem untuk pembelajaran adaptif, selain itu big data juga dapat membantu guru menyesuaikan kecepatan instruksi yang diberikan berdasarkan minat dan kemampuan masing-masing siswa

Big data juga berperan dalam pembuatan laporan spesifik bagi siswa maupun orang tua siswa. Laporan spesifik yang dimaksud di sini adalah laporan yang menunjukan di bidang seorang siswa lebih unggul. Dengan adanya big data, sekolah dapat mengumpulkan data-data terkait kemudian mengolahnya dengan sangat mudah dan cepat. 

Selain itu, jika orang tua ingin mengetahui perkembangan anak mereka, mereka akan memperoleh gambaran yang lebih jelas dan lengkap tentang perkembangannya, semua itu bisa diperoleh dengan waktu yang relatif cepat.

Setiap sekolah sangat membutuhkan informasi-informasi di atas untuk mengevaluasi cara belajar-mengajar, pemberian tugas, kegiatan di luar kelas dan lain lain. Seorang guru terkadang merasa sulit untuk menentukan hal apa yang harus diberikan perhatian ekstra atau apa yang perlu dilakukan ketika seorang siswa baru bergabung ke dalam kelas. Dengan adanya analitik big data, guru-guru akan dengan mudah memfasilitasi pertukaran data antar sekolah dan memecahkan masalah tersebut.

Setiap sekolah memiliki jalur berbeda untuk siswa berbakat. Berbakat atau tidaknya siswa dilihat dari apakah siswa mampu mempelajari atau mengerjakan soal yang lebih menantang atau di atas kemampuannya. Dengan ini big data dapat membantu mengidentifikasi siswa berbakat dan siswa yang kurang berbakat, yang siap untuk pindah ke tingkat selanjutnya atau pindah ke tingkat yang lebih tinggi.


5. Karakteristik Big Data

Sebelum melangkah pada System Integrasi, kita perlu mengenal kerakteristik Big Data. Big Data memiliki 5 karakteristik penting yang harus dipahami. Berikut karakteristik Big Data:

1. Data Lebih Banyak
Random sampling pada Small Data sebenarnya adalah alternatif dari mengumpulkan dan menganalisis dataset penuh, karena keterbatasan teknologi dan kapasitas penyimpanan. Kelemahannya adalah sampling membutuhkan perencanaan dan eksekusi yang hati-hati serta bekerja dalam subset membantu perusahaan meadapat apa yang dicari lebih cepat dan murah tetapi melewatkan pertanyaan yang tidak terpikirkan sebelumnya.

Big Data sebagai meruapakan keseluruhan informasi, namun ukurannya data sendiri tidak melulu besar. Contahnya saat terngukapnya kecurangan pertandingan sumo di Jepang. Data yang digunakan bukan sampel, tapi N=all. Setelah mengumpulkan data 64.000 pertandingan selama 11 tahun terakhir, ternyata data tersebut hanya berukura sama dengan file foto digital. Dengan prisip N=all diperoleh suatu pola yang menunjukan baha pesumo yang lebih membutuhkan kemenangan memiliki peluang 25% lebih besar untuk menang.

2. Berantakan (Messy)
Big data meciptakan dataset yang lebih berantakan, namun mampu memberikan gamberab yang lebih menyeluruh, meskipun tidak terstruktur. Contohnya Google Translate, perusahaan yang bermarkas di Mountain View, California, AS ini mengumpulkan seluruh dokumen dengan terjemahan yang mereka bisa kumpulkan dengan kualitas yang berbeda-beda. Data yang dikumpulkan memang berantakan namun terjemahan yang dihasilkan lebih akurat daripada sistem yang lebih berdasarkan alogaritma, dan jauh lebih kaya (meliputi 60 bahasa).

3. Korelasi
Big Data sering memprediksi berdasarkan korelasi, ketimbang hungungan sebeb akibat. Contoh, pada awalnya Amazon.com mengandalkan review dari suatu tim ahli “The Amazon Voice”. Kemudian mereka menggunakan rekomendasi yang dihasilkan dari personalisasi penjualan produk (pelangga yang memberi produk A cenderung membeli produk B maka juka pelanggan lain membeli produk A, Amazon akan merekomendasikan produk B). Kini sepertiga penjualan Amazon diperoleh dari penawaran produk ke user dari hasil rekomendasi berdasarkan personalisasi.

4. Datafikasi
Mendatafikasi suatu fenomena adalah menyimpannya dalam format yang terkuantifikasi agar bisa ditabulasi dan dianalisis serta menangkap informasi dan menyimpannya dalam format data yang memudahkannya untuk digunakan kembali. Memindahkan data ke bentuk digital belum tentu mendatafikasi.

5. Value
Mengumpulkan data adalah hal yang krusial namun tidak cukup karena kebanyakan nilai dari data terletak pada penggunaan, bukan kepemilikan. Dalam era Big Data, seluruh data akan dianggap berharga, bahkan data paling menda dan sepele. Tidak seperti sumber daya lain, nilai data tidak berkurang setelah digunakan. Biaya petimpanan digital telah berkurang setengahnya setiap dua tahun, sementara storage density meningkat 50 juta kali dalam 50 tahun terakhir.(**)
 

 
 

 



SUMBER :

SEARCHING 2

BINERY SERCHING A. Pengertian Searching Searching adalah mencari data yang dibutuhkan. Searching dalam pemrograman bisa d...