Apache Commons Komprimer støtter både fil bekker (via kompressorer) og strukturert innhold (via archivers).
Biblioteket kan brukes til både kompresjon og dekompresjon operasjoner, som arbeider med en relativ stort antall arkiv formater, være en av de velkjente slike løsninger i Java samfunnet.
Biblioteket er ikke perfekt, noen problemer fortsatt er under utvikling for hvert arkiv filformat, men samlet, hvis du trenger å støtte et stort antall komprimering formater og ikke ønsker å bruke store individuelle biblioteker for hvert format, det Commons Compress Pakken kan være din beste svaret
Egenskaper .
- Støttede arkiv filformater:
- 7z
- ar
- Arj
- bzip2
- cpio
- deflatere
- gzip
- LZMA
- Pack200
- irritabel
- tjære
- Unix dumpe
- XZ
- Zip
Hva er nytt i denne utgaven:
- De irritabel, ar og tjære inputstreams kanskje ikke klarer å lese fra en ikke-bufret strøm i visse tilfeller.
- IOUtils # skip kan hoppe færre bytes enn etterspør selv om mer kan leses fra bekken.
- ArchiveStreams nå validere det er en gjeldende oppføring før du leser eller skriver oppføring data.
- ArjArchiveInputStream # canReadEntryData testet den gjeldende oppføringen av bekken i stedet for sin argumentasjon.
- forandrings # slette og deleteDir nå ordentlig avtale med navngitte oppføringer.
- lagt noen nullkontroller for å forbedre robusthet.
- TarArchiveInputStream ikke klarte å lese arkiver med tomme GID / uid felt.
- TarArchiveInputStream nå igjen kaster et unntak når den støter på en avkortet arkiv mens du leser fra den siste posten.
- Tilpasset TarArchiveInputStream # hoppe til modifiserte IOUtils # hoppe metode. Takk til BELUGA BEHR.
Hva er nytt i versjon 1.7:.
- Read-Only støtte for Snappy komprimering
- Read-Only støtte for Z komprimerte filer.
- zipfile og ZipArchiveInputStream støtter nå leser oppføringer komprimert med krympe metoden.
- GzipCompressorOutputStream nå støtter innstillingen komprimeringsnivå og header metadata (filnavn, kommentar, modifikasjon tid, operativsystem og ekstra flagg)
- zipfile og ZipArchiveInputStream støtter nå leser oppføringer komprimert med implodere metoden.
- zipfile og 7z arkiv klasser nå implementere lukkbar, og kan brukes i prøve-med-ressurser konstruksjoner.
Hva er nytt i versjon 1.5:
- CompressorStreamFactory har opsjon på å skape dekomprimere bekker som dekomprimere den fulle inngang for formater som støtter flere sammenkjedede bekker.
Hva er nytt i versjon 1.4:
- Støtte for XZ-formatet har blitt lagt
Hva er nytt i versjon 1.3:
- Støtte for Pack200 formatet har blitt lagt
- Read-only støtte for formatet som brukes av Unix dump (8) verktøyet har blitt lagt til.
Hva er nytt i versjon 1.2:
- Nye funksjoner:
- ZipArchiveEntry har en ny metode getRawName som gir de opprinnelige bytes som gjorde opp navnet. Dette kan føre til at brukerkode for å oppdage koding.
- TarArchiveEntry gir tilgang til flaggene som avgjør om det er en arkivert symbolsk lenke, pipe eller annen & quot; uvanlig & quot; filsystemet objekt.
- Faste Bugs:
- ZipArchiveInputStream kan mislykkes med en & quot; avkortet ZIP & quot; feilmelding for oppføringer mellom to GByte og 4 GByte i størrelse.
- TarArchiveInputStream oppdager nå sparsom oppføringer ved hjelp av oldgnu format og ordentlig rapporterer det kan ikke trekke ut innholdet.
- Javadoc for ZipArchiveInputStream # hoppe nå matcher gjennomføringen, har koden blitt gjort mer defensive.
- ArArchiveInputStream mislykkes hvis oppføringer inneholder bare blanks for brukerid eller groupId.
- zipfile kan lekke ressurser på enkelte JDKs.
- BZip2CompressorInputStream kaster IOException hvis underliggende stream avkastning tilgjengelig () == 0. Fjernet sjekken.
- Calling close () på Input returnert av CompressorStreamFactory.createCompressorInputStream () ikke lukker den underliggende input stream.
- TarArchiveOutputStream # ferdig nå skriver alle bufrede data til bekken
- Endringer:
- zipfile implementerer nå sluttføre som lukker den underliggende filen.
- Visse tjære ikke filer anerkjent av ArchiveStreamFactory.
Krav :
- Java 5 eller nyere
Kommentarer ikke funnet