De Apache surrer bibliotekene er skrevet i Java, med sprinkles av XML og Python.
De ble skrevet og samlet å gi en enkelt-verktøy løsning å jobbe med mengde skytjenester og cloud-baserte verktøy dukker opp overalt på Internett i disse dager.
Disse bibliotekene gi et felles grensesnitt for å kommunisere med hver av disse tjenester / verktøy, automatisk håndtering forskjellene mellom dem.
Standarder for hver tjeneste er gitt og utvikleren bare behov for å gjøre noen raske endringer for å få et grensesnitt oppe og går innenfor minutter
Egenskaper .
- Støttede tjenester:
- De fleste av komponentene i Apache Hadoop stabelen
- Apache Mahout
- Chef
- Puppet
- ganglia
- ElasticSearch
- Apache Cassandra
- Voldemort
- Hama
- Tjenester kan distribueres til:
- Amazon EC2
- Rackspace Cloud
Hva er nytt i denne utgaven:
- Adapter for Openstack Clouds
- Laget Kerberos service
- Lagd Python-skript for å hjelpe ssh / scp i til VM
- Whirr script for Hadoop MRv2 garn installerer som støtter Hadoop-2.0.x og Hadoop 3.x (trunk) grener
Hva er nytt i versjon 0.5.0:
- Under oppgaver:
- Støtte for flere versjoner av Zookeeper
- Lag ClusterSpec klar BlobStoreContext fabrikk klasse
- Faste Bugs:
- Logg advarsel for ukjent tjenestenavn
- dyrepasser tjenesten skal bare godkjenne ingress til dyrepasser tilfeller
- Whirr henger når filen '$ HOME / .ssh / known_hosts' har en foreldet identifikator for en bestemt ip-adresse vert.
- Forbedringer:
- Gjør mer effektiv bruk av ComputeServiceContext
- Legg ClusterAction for generisk skriptkjøring
- Forbedre feilmelding hvis whirr.instance-maler utelatt av config
- Støtte for flere versjoner av Hadoop
- Oppdater konfigurasjons Guides med oppskrift Info
- Klart avgrense brukeren og tjenesteleverandør APIer
- Nye funksjoner:
- [CDH] Start andre tjenester basert på CDH, ikke bare HDFS og MR
- Støtte lokale tarball opplasting
- Legg til Voldemort som en tjeneste
- Legg ElasticSearch som en tjeneste
- Legg til støtte for BYON
Hva er nytt i versjon 0.4.0:
- Bugs:
- Forekomster bør startes i den rekkefølgen som er angitt i malen.
- [HBase] Integrasjon testen mislykkes.
- Håndter curl timeouts bedre.
- Loggfiler bør ikke inngå i tarball eller kontrolleres av RAT.
- CDH og Hadoop integrasjonstester er sviktende.
- NPE for stoppet forekomster på EC2.
- Ressurs funksjoner / install_cdh_hadoop.sh ikke funnet når du kjører fra CLI.
- Forbedringer:
- Brukere bør være i stand til å overstyre en vilkårlig Hadoop eiendom før lansering.
- Oppgrader til jclouds 1,0-beta-9.
- Oppskrift for et HBase Cluster.
- Vis tilgjengelige roller i stedet for tjenestenavn når du kjører ./bin/whirr.
- Nye funksjoner:
- Tillat brukere å logge seg inn i klynger som seg selv.
- Støtte brukerdefinerte bilder.
- Støtte lokalt levert skript.
- Legg til evnen til å ødelegge en klynge.
Hva er nytt i versjon 0.1.0:
- Sub-oppgave:
- Fyll i å få i gang dokumentasjon - få-started.confluence
- Dokument og implementere utgivelsesprosessen
- Legg KEYS fil til distribusjonskatalogen
- Publiser Maven gjenstander til http://repository.apache.org
- Oppdater rask start dokumentasjon for å jobbe med utgivelsen 0.1.0
- Bug:
- Hadoop-sky push-kommandoen påkaller proxy skapelse
- Ikke krever manuell installasjon av Apache RAT å kompilere
- Fix RAT advarsler på grunn av nettstedet filer
- Cassandra POM bør avhenge av topp-nivå
- Løsning bug 331 i jclouds (Noen EC2ComputeService operasjoner mislykkes for stoppet tilfeller)
- Bare gi tilgang til klynger fra definerte nettverk
- Hadoop tjenesten er brutt
- integrasjonstestene bør ikke kjøre på & quot; mvn installere & quot;
- Log4j mangler fra CLI JAR
- Forbedring:
- Lag maur bygge for å kjøre EC2 enhet tester
- Support ekstra sikkerhetsgruppe alternativ i Hadoop-EC2 script
- Lag setup.py for EC2 cloud scripts
- Generer RAT rapport
- Håndheve kildekode stil
- egen enhet og integrering (system) tester
- Oppgrader til jclouds 1,0-beta-6
- Tillat skript steder å bli overstyrt
- Legg Whirr rask start til README.txt og nettside (når det er live)
- Oppdater POM å peke på Apache RAT 0.8-SNAPSHOT
- Åpne opp portene 50010 (JobTracker) og 50070 (NameNode) for Hadoop service
- Legg til kjernen javadoc
- Opprette en service fabrikk
- La Hadoop-tjenesten skal kjøres på Rackspace Cloud servere
- Vedta standard Java SPI grensesnitt
- Implementere tjeneste / CDH
- Introduser navngi konsistens for sky tjenesteleverandører
- Foren ClusterSpec og ServiceSpec
- kople keypairs fra filene som holder dem
- Bruk Commons Configuration å administrere klase specs
- Rense POM avhengig
- Ny funksjon:
- Legg til støtte for EBS lagring på EC2
- Kjør namenode og jobtracker på separate EC2 instanser
- Skriv en Rackspace sky leverandør
- Legg til en dyrepasser tjeneste til skyen scripts
- Legg til Cassandra tjeneste
- Legg til en CLI
- Oppgave:
- Import opprinnelige kildekoden fra Hadoop contrib
- Import innledende Java kildekode
- Lag prosjektets hjemmeside
- Legg til målet kataloger til svn ignorere
- Slipp versjon 0.1.0
Kommentarer ikke funnet