Må ha Utviklingsverktøy skript For Apache Software Foundation
Apache Flink ble utviklet for å jobbe med Apache Hadoop og leveres med Java og Scala bindinger. Flink er en kraftig plattform som lar deg administrere serverklynger og bruke dem til å behandle og analysere store mengder data på en effektiv og rask måte....
Apache Flume ble utviklet som et mellomledd system som samler logger fra ett program og leverer den til en annen.Det skal fungere med de fleste Java-programmer og utviklere bør være trygg, Flume beskyttet mot tap av data og service fiasko.Loggdata er...
FOP står for " F ormatting O bjects P rocessor" og er et Java-bibliotek som kan lese XSL-FO data og sende den til et annet format.XSL-FO er et XML-format som skriveren-klar informasjon er lagret, men også støtte XSL formateringen også.Apache FOP...
Apache Geronimo tar noen av de beste bedriften verktøy som finnes i åpen kildekode Java samfunnet og maskene dem sammen til én enkelt server runtime, klar til å bli utplassert i produksjonsmiljøer.Geronimo kommer med Eclipse integrering, er Apache Tomcat...
Giraph er Apache svar til utvikleren markedets behov for sosial grafdata analyseverktøy.Apache Giraph er i stand til å ta inter-koblet sosiale data og kjører ulike dataanalyse og behandling av operasjoner på det uten store serverinfrastrukturer å gjøre...
Apache Gora tar sikte på å gi en felles plattform der utviklere kan lage verktøy som kan håndtere store mengder informasjon, uavhengig av deres underliggende lagringsenheten. Gora er skrevet i Java og ble opprettet som et alternativ til andre Java Orms...
Apache Hadoop ble opprinnelig utviklet av Yahoo og prosjektet er en kombinasjon mellom de tidligere Apache Hadoop Kjerne og Apache Hadoop Vanlige repos. Hadoop Prosjektet har fått mye notoritet takket være sine gode resultater i å implementere en...
Apache HBase ble modellert etter Googles interne BigTable databasesystem og ble bygget på toppen av den berømte Apache Hadoop databehandling rammeverk og distribuert databehandling motor. Fordi det ble bygget på Hadoop, noen av sine kule funksjoner er...
Apache Helix kan brukes til å håndtere store dataressurser, vert på cloud infrastruktur eller i databehandling klynger.Den er bygget på toppen av en annen Apache-prosjektet, Zookeeper , og gir et generisk grensesnitt for å administrere klynger med stort...
Apache Hive ble først utviklet som en Apache Hadoop delprosjekt for å gi Hadoop administratorer med en enkel å bruke, dyktig spørrespråk for sine data.På grunn av dette, ble Hive utviklet fra starten til å jobbe med store mengder informasjon for hver...