<div dir="ltr">git-annex (written in Haskell!) is designed specifically for this purpose. might be worth a look.<div><br></div><div>-E</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Jun 10, 2014 at 4:02 PM, Simon Peyton Jones <span dir="ltr"><<a href="mailto:simonpj@microsoft.com" target="_blank">simonpj@microsoft.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">| Right now, cloning the ghc-tarballs.git repo requires to fetch ~130MiB.<br>
|<br>
| Can't we simply put the tarballs in a plain HTTP folder on<br>
| <a href="http://ghc.haskell.org" target="_blank">http://ghc.haskell.org</a>, and store a list (or rather a shell script) of<br>
| URLs+checksums in ghc.git to retrieve the tarballs if needed on demand?<br>
<br>
Personally I'm fine with that, if someone feels able to implement it (and document in the wiki:Repositories page).<br>
<br>
But remember that I'm not very au fait with all the issues so I defer to others<br>
<br>
Simon<br>
<br>
| -----Original Message-----<br>
| From: Herbert Valerio Riedel [mailto:<a href="mailto:hvriedel@gmail.com">hvriedel@gmail.com</a>]<br>
| Sent: 10 June 2014 09:43<br>
| To: Simon Peyton Jones<br>
| Cc: Robin KAY; <a href="mailto:ghc-devs@haskell.org">ghc-devs@haskell.org</a><br>
| Subject: Re: GHC MinGW distribution<br>
|<br>
| Hello Simon,<br>
|<br>
| On 2014-06-10 at 10:25:46 +0200, Simon Peyton Jones wrote:<br>
|<br>
| [...]<br>
|<br>
| > We physically include very selective chunks of MinGW in a GHC Windows<br>
| distribution<br>
| > - so that users don't need to install MinGW<br>
| > - so that GHC doesn't break just because a user has<br>
| >   a different version of MinGW than we expected<br>
| > We keep these chunks of MinGW in the GHC repo (in ghc-tarballs)<br>
| > precisely so that we know exactly which bits to ship.<br>
|<br>
| Btw, there's just one thing I'm worried about with keeping those large<br>
| MinGW binary tarballs in a Git repo:<br>
|<br>
| The Git repo will grow monotonically with each new compressed<br>
| .tar.{bz2,lzma,gz,...} added, with little opportunity for Git to detect<br>
| shared bitstreams. So effectively each MiB of binary-data added will<br>
| effectively grow the Git repo everyone will have to clone (even if only<br>
| the latest MinGW for a specific 32/64-bit platform is desired) by that<br>
| same amount.<br>
|<br>
| Right now, cloning the ghc-tarballs.git repo requires to fetch ~130MiB.<br>
|<br>
| Can't we simply put the tarballs in a plain HTTP folder on<br>
| <a href="http://ghc.haskell.org" target="_blank">http://ghc.haskell.org</a>, and store a list (or rather a shell script) of<br>
| URLs+checksums in ghc.git to retrieve the tarballs if needed on demand?<br>
|<br>
| Cheers,<br>
|   hvr<br>
<div class="HOEnZb"><div class="h5">_______________________________________________<br>
ghc-devs mailing list<br>
<a href="mailto:ghc-devs@haskell.org">ghc-devs@haskell.org</a><br>
<a href="http://www.haskell.org/mailman/listinfo/ghc-devs" target="_blank">http://www.haskell.org/mailman/listinfo/ghc-devs</a><br>
</div></div></blockquote></div><br></div>