<div dir="ltr"><br><br><div class="gmail_quote"><div dir="ltr">---------- Forwarded message ---------<br>From: <strong class="gmail_sendername" dir="auto">Örsan Şenalp</strong> <span dir="ltr"><<a href="mailto:orsan1234@gmail.com">orsan1234@gmail.com</a>></span><br>Date: Fri, Oct 26, 2018 at 11:25 PM<br>Subject: [Networked-Labour] Fwd: <nettime> Interview with Richard Stallman in New Left Review (September-October 2018)<br>To: Networked Labour <<a href="mailto:networked-labour_igopnet@lists.igopnet.cc">networked-labour_igopnet@lists.igopnet.cc</a>><br></div><br><br>---------- Forwarded message ---------<br>
From: Harsh Kapoor <<a href="mailto:aiindex@gmail.com" target="_blank">aiindex@gmail.com</a>><br>
Date: Fri, 26 Oct 2018 at 23:23<br>
Subject: <nettime> Interview with Richard Stallman in New Left Review<br>
(September-October 2018)<br>
To: <<a href="mailto:nettime-l@mail.kein.org" target="_blank">nettime-l@mail.kein.org</a>><br>
<br>
<br>
<a href="https://newleftreview.org/II/113/richard-stallman-talking-to-the-mailman" rel="noreferrer" target="_blank">https://newleftreview.org/II/113/richard-stallman-talking-to-the-mailman</a><br>
<br>
richard stallman<br>
<br>
TALKING TO THE MAILMAN<br>
<br>
Interview by Rob Lucas<br>
<br>
You’re widely recognized as the world’s leading campaigner for<br>
software freedom, having led the development of the gnu operating<br>
system. Today, the gnu /Linux operating system, and free (libre)<br>
software more broadly, underpin much of the internet, yet new<br>
structures have emerged that can wield a great deal of power over<br>
users. We’d like to talk to you about the present computing landscape<br>
and the political relevance of free software. But may we start by<br>
asking about your formation, as a programmer and as a thinker—how did<br>
it all begin?<br>
<br>
I grew up in Manhattan, born in 1953. I was a behavioural problem—I<br>
couldn’t go to a public school without getting in trouble—and started<br>
working with computers at an early age. In 1969, during my last year<br>
of high school, an ibm lab let me come and use their computers. In<br>
1970 I had a summer job there. They gave me a project to do,<br>
implementing a certain algorithm to see how well it would work. I<br>
finished that in a few weeks, so they let me spend the rest of the<br>
summer being paid to write whatever I felt like. I went to Harvard to<br>
study physics, and carried on programming there. Towards the end of my<br>
first year I started visiting computer labs to look at their manuals,<br>
to see how the computers differed. When I visited the Artificial<br>
Intelligence Lab at mit, they didn’t have much by way of a manual,<br>
because they had developed their own time-sharing system. The<br>
administrator there decided to hire me more or less straight away. So<br>
although I graduated from Harvard in 1974, I had actually been an<br>
employee at mit for three years. Harvard’s computer was a lot better<br>
to play with than ibm’s, but it didn’t have a lot of memory, whereas<br>
mit’s computer at the ai Lab had plenty. Not only that, they let me<br>
change the time-sharing system; in fact, that was my job—they hired me<br>
to work on that system. I added lots of features to lots of different<br>
programs—whatever I thought of, or people suggested to me, that seemed<br>
like a good idea, I would implement and then people would use it. And<br>
this was absolutely delightful—and gratifying to make things that<br>
people used and appreciated—so I kept working there. From that point<br>
on, I did programming using the machine at mit.<br>
<br>
Were there any people at mit who were influential in how you learned<br>
programming?<br>
<br>
There was Richard Greenblatt, who later started the Lisp Machine<br>
project; to some extent there was Don Eastlake. And Bill Gosper,<br>
although he was more of an inspiration in terms of hacking and math<br>
than in how to program. There were a lot of smart people there. But<br>
also I was inspired by the attitude at the mitai Lab, where the<br>
hackers said: ‘We’re not going to let the administrators tell us how<br>
to do things; we’re going to work on what they need, but we will<br>
decide how; and we won’t let them implement computer security to<br>
restrict us with.’ This was a conscious decision of the hackers who<br>
had written the time-sharing system, which they’d started a couple of<br>
years before I got there. Their attitude was, yes, the administrators<br>
could fire us, but we were not going to suck up to them. They weren’t<br>
going to stand being treated like ordinary employees. I wouldn’t have<br>
had the strength to do this on my own, but as part of a team, I<br>
learned it. We were the best, and most of us weren’t getting paid an<br>
awful lot—any of us could have got a much better-paying job someplace<br>
else if we’d wanted. We were there because we were free to improve the<br>
system and do useful things, the way we wanted to, and not be treated<br>
like people who had to obey all the time.<br>
<br>
And this had the consent of the ai Lab’s directors?<br>
<br>
To some extent. The Lab’s leaders, Marvin Minsky and Patrick Winston,<br>
were perfectly content with it. Minsky, I was told, didn’t like having<br>
doors locked, because he had a tendency to lose his keys. So the doors<br>
to the Lab and all the offices inside it were always open. There were<br>
no passwords for the time-sharing system. There was no file<br>
protection—literally: anybody could sit down at any console and do<br>
anything.<br>
<br>
To what extent do you think that the collective ethos at the mit ai<br>
Lab back then—which is a striking feature of this history, and is<br>
typically cited in the origin stories of free and ‘open source’<br>
software—was premised on the fact that you were working with a<br>
different kind of technology?<br>
<br>
It had to do with the fact that we used a shared computer. The pdp-10<br>
was the size of a room and cost a million dollars, so to get another<br>
one was not easy. Time-sharing started in the 1960s, but even in 1980<br>
no one thought we could afford a computer for each person—not a real<br>
computer. Yeah, there were these toy pcs, but what could you do with<br>
those? The point is that when people share a computer, either they do<br>
so as a community, where they trust each other and resolve disputes,<br>
or it’s run like a police state, where there are a few who are the<br>
masters, who exercise total power over everyone else.<br>
<br>
So you’d agree that the origins of the free-software movement had<br>
something to do with the shared use of a computer?<br>
<br>
Yes and no. At the mitai Lab, the hackers were the authors of the<br>
software and were also in charge of the machine. Perhaps guided by the<br>
spirit of Marvin Minsky, we developed a culture of welcoming everyone<br>
to come and work on everything, and share. So, we resisted security<br>
measures. Anyone could look at anyone else’s terminal through the<br>
system. If you had real work to do, you didn’t do that very much,<br>
because you were busy. But the kids, teenagers coming in over the<br>
internet—Arpanet, as it was then—they would watch, and they would<br>
learn things. They would also watch each other and notice if someone<br>
was causing harm.<br>
<br>
So they could watch people programming?<br>
<br>
Yes, they could. Our way of dealing with kids coming in over Arpanet<br>
was to socialize them. We all participated in that. For example, there<br>
was a command you could type to tell the system to shut down in five<br>
minutes. The kids sometimes did that, and when they did we just<br>
cancelled the shutdown. They were amazed. They would read about this<br>
command and think, surely it’s not going to work, and would type<br>
it—and get an immediate notification: ‘The system is shutting down in<br>
five minutes because of . . . ’<br>
<br>
It sounds like chaos.<br>
<br>
Except it wasn’t, you see. There was always a real user, who would<br>
just cancel the shutdown and say to that person, ‘Why did you try to<br>
shut the machine down? You know we’re here using it. You only do that<br>
if there’s a good reason.’ And the thing is, a lot of those people<br>
felt outcast by society—they were geeks; their families and their<br>
fellow students didn’t understand them; they had nobody. And we<br>
welcomed them into the community and invited them to learn and start<br>
to do some useful work. It was amazing for them not to be treated as<br>
trash.<br>
<br>
And these kids were primarily coming in over Arpanet?<br>
<br>
A few would come in physically, but most came in over Arpanet.<br>
<br>
One thing that’s striking about that culture—which is legendary in the<br>
history of computing—is that it flourished in an institution largely<br>
funded by the American Defense Department. Do you find it paradoxical<br>
that this sort of freedom could develop under the carapace of the<br>
Pentagon?<br>
<br>
It’s paradoxical, but it actually makes perfect sense. They wanted to<br>
fund some research. They didn’t need to make it be done by jerks and<br>
downtrodden people—they just wanted it to get done. During the<br>
seventies, a number of the hackers at the ai Lab were bothered by the<br>
fact that it was funded by the us military. I thought that what<br>
mattered was what we were doing, not where the money came from, and at<br>
some point I reached a conclusion that funding from business was much<br>
worse.<br>
<br>
Worse than funding from the military?<br>
<br>
Much worse, because the businesses would try to restrict the use of<br>
what you did.<br>
<br>
Nevertheless, this was the state that was bombing Vietnam.<br>
<br>
Yes, it was. I was against the Vietnam War, just like everyone else in<br>
the Lab, but we weren’t helping them bomb Vietnam. Our work wasn’t<br>
particularly military, or even likely to be used in the short term.<br>
For instance, Greenblatt did a lot of work on chess programs; I mostly<br>
worked on improving various system programs—I developed the first<br>
Emacs text editor during that time.<br>
<br>
At what point did that culture change—and how?<br>
<br>
Even in the ai Lab, by the late 70s there was pressure from the<br>
administration to try to get things under control, which I explicitly<br>
resisted. Once I was in the elevator with an administrator who had<br>
instituted some forms that every user was supposed to fill out, and I<br>
hadn’t. He said, ‘It seems you haven’t filled out the user forms.’ I<br>
replied something like, ‘Yes, I don’t see a reason to.’ He said,<br>
‘Well, you really should fill them out, otherwise somebody might<br>
delete your directory, if it isn’t clear what it’s for.’ I said, ‘That<br>
would be rather a shame, since some of the system source code<br>
currently resides in my directory—it would be rather a problem for the<br>
Lab if it got deleted.’ The thing is, I could do things and he<br>
couldn’t. But by around 1980, somebody insisted on putting on<br>
passwords on the time-sharing machines at the mit Lab for Computer<br>
Science. I’d been getting paid half and half by the ai Lab and the<br>
Laboratory for Computer Science, but at that point I switched to just<br>
the ai Lab, because I wouldn’t do anything for lcs anymore.<br>
<br>
Did other people have the same reaction?<br>
<br>
Many did, but the others basically got worn down, and eventually gave<br>
in. Over the period of the seventies, the spirit of resistance got<br>
worn down in others, whereas it got strengthened in me.<br>
<br>
How do you explain that?<br>
<br>
I don’t know. I guess I had found something worth being loyal to, and<br>
I basically had nothing else.<br>
<br>
It was at this point too that commercial ventures began dividing the<br>
programmers at the ai Lab?<br>
<br>
It was a process that happened over a few years. Greenblatt started<br>
the Lisp Machine project—Lisp was a particularly powerful programming<br>
language, in which a program has a simple, natural representation as<br>
data that other programs can operate on. Everyone at the Lab agreed it<br>
would be great to start a company to make Lisp Machines, so other<br>
people could have them, but there was disagreement about how to do it.<br>
Greenblatt wanted to start a company without outside investors, but<br>
the other hackers questioned his business acumen. So he brought in<br>
Russell Noftsker—the man who had hired me in 1971, when he was the<br>
administrator of the ai Lab. Noftsker then decided to jettison<br>
Greenblatt and start a company with investors, in the usual way. So<br>
around 1980 two rival companies got started—the second, Symbolics, by<br>
stabbing Greenblatt in the back. I didn’t want to join either<br>
company—I just wanted to keep working at the ai Lab, which for me was<br>
ideal.<br>
<br>
Were similar dynamics of commercialization affecting the hacker<br>
culture elsewhere, at Stanford for example?<br>
<br>
I don’t know. I visited Stanford, but I wasn’t there enough to know<br>
what sort of things were going on.<br>
<br>
How did the rivalry of these two companies affect the situation at mit ?<br>
<br>
To begin with, both Symbolics and lmi, Greenblatt’s company,<br>
cooperated in maintaining the mit Lisp Machine system. But in 1982—in<br>
fact on my birthday, March 16—Symbolics announced that mit could no<br>
longer include its changes into the mit version of the system, which<br>
meant everybody had to choose a side: the Symbolics system or the mit<br>
system, used also by lmi. And, as a neutral who had just been attacked<br>
and given an ultimatum, I really had no honourable choice except to<br>
fight that side. I always thought of this as war, and I understood my<br>
part as a rearguard action. My goal was to keep the mit version of the<br>
system viable long enough for lmi to escape being destroyed by<br>
Symbolics, which was its goal. They were making all their improvements<br>
available to mit, of course. But I didn’t want to read their code and<br>
then write something similar, so I looked at their documentation and<br>
then implemented a comparable feature—not necessarily the same,<br>
because I had a chance to do it better, and often I saw a better way<br>
to do it.<br>
<br>
Except that there were, what, a dozen of them and one of you?<br>
<br>
There were more like six main guys. But, yes, I had to match what they<br>
did, so I worked very, very hard. But this showed me that I could do<br>
something big like gnu.<br>
<br>
Right. So that was an education, in a sense?<br>
<br>
It was. It was an education in concentrating very hard on getting<br>
software features working—making them as clean as I could, and getting<br>
them working reasonably soon. Anyway, they couldn’t destroy lmi this<br>
way, but they could work on another generation of computer, which lmi<br>
couldn’t. And in 1983 their computers, their newer versions, started<br>
to arrive, and the mit system couldn’t run on them. I saw that I would<br>
be unable to continue what I was doing. But I also saw that I had done<br>
enough—it had been a successful delaying action; it had enabled lmi to<br>
get going and start developing another model of computer, and hire<br>
some people to do the software for it. So then I decided, I don’t want<br>
to spend the rest of my life punishing Symbolics for its aggression—I<br>
want to try to build a replacement for what they destroyed.<br>
<br>
You mean, the culture at the ai Lab?<br>
<br>
The culture—but above all the hacker community, and a system that we<br>
could work on freely and share. But having a free-software community<br>
depends on having a body of free software you can use—and that’s why I<br>
had to develop another operating system. The only way there would be a<br>
free operating system was if somebody wrote one for modern<br>
computers—ordinary computers, rather than special ones, like the Lisp<br>
Machine. By the 1980s, lots of people were buying ibmpcs. Although<br>
they were still weak at that stage, I realized that future pcs would<br>
be able to run the system I was going to develop. That meant it was<br>
best to make a system compatible with Unix, which gave me the basic<br>
parameters of gnu.<br>
<br>
It’s interesting that you describe it primarily in terms of creating a<br>
community, rather than creating the technology.<br>
<br>
The community needs the technology—you can’t have a community in which<br>
software-sharing is your way of life unless you’ve got free software<br>
to do everything. The point is, the software had the purpose of making<br>
the community possible. But part of the idea was that I wanted<br>
everyone to be part of this community—the aim was to liberate all<br>
computer users. At the same time, I was getting one lesson after<br>
another in the injustice of non-free software. mit had bought a new<br>
machine which ran Digital’s time-sharing system, twenex, instead of<br>
the one we’d been developing; it had security features that allowed a<br>
group of users to seize power over the machine and deny it to others.<br>
I saw the repressive rules for student computers introduced at<br>
Harvard. I suggested they apportion a computer to each group of<br>
students living together, and let them all run it; those who were<br>
interested would develop the skill of system administration, and they<br>
would all learn to live together as a community by resolving their own<br>
disputes. Instead I was told: ‘We’ve signed contracts for proprietary<br>
software, which say we’re not allowed to let any of the students get<br>
at them.’ This was a proprietary operating system that made it<br>
possible to have programs that people could run but couldn’t actually<br>
read. It taught me that non-free software was a factor in setting up a<br>
police state inside the computer—which at the ai Lab was generally<br>
understood wisdom; I wasn’t the first to call that ‘fascism’. I was<br>
also the victim of a non-disclosure agreement, which taught me about<br>
the nature of those agreements—that they are a betrayal of the whole<br>
world. [1]<br>
<br>
The gnu /Linux operating system now constitutes a very significant<br>
part of global computing infrastructures, and has countless<br>
contributors globally. How did you go about writing gnu at the<br>
start—to what extent was it a collective endeavour?<br>
<br>
In the early days there were not very many people participating.<br>
Gradually, more joined. I tried approaching companies to see if they<br>
might fund the effort, but none did. I’d announced the gnu project on<br>
Usenet in September 1983—Usenet was a pre-Internet system for net<br>
news, set up by at&t. Initially only one person actually wanted to<br>
work, so there were just two of us when we started in January 1984. At<br>
that point, I formally quit my job at mit, but the head of the Lab,<br>
Patrick Winston, offered me the use of the Lab’s facilities to do the<br>
development work, which was helpful. In 1985 we set up the Free<br>
Software Foundation and published the gnu Manifesto; that attracted<br>
more volunteers. Coming up with replacements for all the components of<br>
Unix was a big job, and I had to find people to do each part. This<br>
stage, I’d say, finished around 1990, when I got to be a little<br>
famous, got an award and got more attention.<br>
<br>
This was more or less coterminous with the development of the modern<br>
internet, in terms of the publication of Berners-Lee’s proposal for<br>
the worldwide web. What explains the attention you were getting at<br>
that moment—the attractions for programmers of the free-software<br>
movement?<br>
<br>
We’d drawn up the gnu General Public Licence, which guarantees end<br>
users the freedom to run, study, share and modify the licenced<br>
software program. It was the first ‘copyleft’ licence for general<br>
use—meaning that software deriving from that program has to be<br>
distributed under the same gpl terms. Most of all, we were producing<br>
software that lots of programmers were finding useful because it was<br>
more reliable than the commercial proprietary alternatives. Someone<br>
did an experiment, testing the various programs—versions of Unix, or<br>
our free replacements—to see whether the program would crash. Ours<br>
were the most reliable.<br>
<br>
Could you explain why they were so reliable?<br>
<br>
I guess because we really cared—and we would really fix bugs that the<br>
users reported. Not only that: users could send us fixes, as well as<br>
just bug reports. We had a policy of thanking users for their bug<br>
reports. The main milestone was passed in 1992, when we had a complete<br>
system, using the kernel designed by Linus Torvalds. We’d started<br>
developing a kernel in 1990, but the design I chose turned into a<br>
research project—it took six years to get a test version. So Linux is<br>
the kernel that we actually use with gnu, for the most part.<br>
<br>
And Torvalds fortuitously used a gnu licence to do it?<br>
<br>
Not initially. In 1991, Linux was proprietary. In ’92, he re-released<br>
it under the gnugpl.<br>
<br>
You persuaded him?<br>
<br>
No, I didn’t—I had never heard of him at that point. But he had, I<br>
believe, seen me give a talk at the Helsinki University of Technology.<br>
When he freed the kernel we could use it, calling that combination<br>
gnu/Linux.<br>
<br>
What’s your definition of free software?<br>
<br>
Free software is software that respects users’ freedom and community.<br>
It’s not about price. It’s libre, not gratis. With any program, there<br>
are two possibilities: either the users control the program, or the<br>
program controls the users. When the users control the program, that’s<br>
free software—they control the things they do with it, and thus it<br>
respects their freedom and their community. If they don’t have full<br>
control over it, then it’s user-subjugating, non-free proprietary<br>
software—the program controls the users, and the program’s owners<br>
control the program, so it becomes an instrument of unjust power for<br>
the owner over the users. For the users to have control, they need<br>
four specific freedoms—the concrete criteria for free software.<br>
Freedom Zero is the freedom to run a program however you want, for<br>
whatever purpose you have. Freedom One is being able to study the<br>
program’s source code and change it so that you can make the program<br>
run the way you wish.<br>
<br>
What about people who can’t do that—ordinary users who aren’t programmers?<br>
<br>
I don’t think that everyone has to learn how to program—not everybody<br>
has a talent for it. But they still deserve control over their<br>
computing activities. They can only get that through collective<br>
control, which implies the right of users to work together to exercise<br>
control over what the program does for them. So further freedoms are<br>
necessary for collective control. Freedom Two is the freedom to make<br>
exact copies of a program and give or sell them to others. Freedom<br>
Three is being able to make copies of your modified versions, and give<br>
or sell them to others. This makes it possible for users to work<br>
together, because one of them can make a modified version of a program<br>
and distribute copies to others in the group, and they can make exact<br>
copies and pass them on. That’s free software—and all software should<br>
be free, because the user’s freedom should always be respected. Every<br>
non-free program is an injustice. The fact that it exists is a social<br>
and ethical problem for society; and the goal of the free-software<br>
movement is to put an end to that.<br>
<br>
You’ve argued that this foregrounding of freedom radically<br>
differentiates your movement from so-called ‘open source’, which<br>
started later.<br>
<br>
Open source is an amoral, depoliticized substitute for the<br>
free-software movement. It was explicitly started with that intent. It<br>
was a reaction campaign, set up in 1998 by Eric Raymond—he’d written<br>
‘The Cathedral and the Bazaar’—and others, to counter the support we<br>
were getting for software freedom. When it started, Eric Raymond<br>
called me to tell me about this new term and asked if I wanted to use<br>
it. I said, I’ll have to think about it. By the next day I had<br>
realized it would be a disaster for us. It meant disconnecting free<br>
software from the idea that users deserve freedom. So I rejected it.<br>
<br>
It’s one of the ironies of the history of free software that its<br>
moment of greatest fame was associated with this term, open source,<br>
which you reject.<br>
<br>
Because it’s not the name of a philosophy—it refers to the software,<br>
but not to the users. You’ll find lots of cautious, timid<br>
organizations that do things that are useful, but they don’t dare say:<br>
users deserve freedom. Like Creative Commons, which does useful,<br>
practical work—namely, preparing licences that respect the freedom to<br>
share. But Creative Commons doesn’t say that users are entitled to the<br>
freedom to share; it doesn’t say that it’s wrong to deny people the<br>
freedom to share. It doesn’t actively uphold that principle. Of<br>
course, it’s much easier to be a supporter of open source, because it<br>
doesn’t commit you to anything. You could spend ten minutes a week<br>
doing things that help advance open source, or just say you’re a<br>
supporter—and you’re not a hypocrite, because you can’t violate your<br>
principles if you haven’t stated any. What’s significant is that, in<br>
their attempt to separate our software from our ideas, they’ve reduced<br>
our ability to win people over by showing what those ideas have<br>
achieved. People who don’t agree with us—people who think what matters<br>
is what’s convenient—have a right to present their views. But they did<br>
it in a way that misrepresents us, too. And that, I think, is unfair.<br>
<br>
In that sense, it really does appear a kind of political recuperation.<br>
<br>
I wouldn’t use that term—to recuperate means to recover from some sort<br>
of illness, and I don’t see who’s recovered here. I would call it<br>
co-optation—they co-opted our work. They did it intentionally, and<br>
they succeeded to a large extent. They would have succeeded 100 per<br>
cent, except that we fought back.<br>
<br>
Could you explain in concrete terms how non-free software is unjust for users?<br>
<br>
The mere fact that the users can’t add features, can’t change<br>
features, and can’t fix bugs is an injustice. The users of old<br>
versions of programs that are no longer supported are effectively<br>
compelled to change to a newer version, whether they want to or not.<br>
Non-free, proprietary software is also much more likely to be<br>
malware—to contain malicious functionalities, of which there are many<br>
kinds. Non-free programs can spy on the users, report on them. Many<br>
are designed specifically to restrict what users can do—that’s their<br>
purpose. The proponents of these malicious functionalities have a term<br>
for this: they call it ‘digital rights management’, drm. That’s a<br>
propaganda term—I never use it. I call it Digital Restrictions<br>
Management.<br>
<br>
Then there are backdoors, which means that somebody can send a command<br>
remotely to the program and tell it to do something to the user, as<br>
Microsoft did when it forced users to upgrade to Windows 10—whether<br>
it’s upgrading or downgrading is a matter of opinion—and then made it<br>
impossible for them to cancel. This apparently was done through<br>
commands sent to Windows remotely by Microsoft, which essentially owns<br>
those users’ computers, because it put a universal backdoor into<br>
Windows. Just as a computer is a universal computing engine, because,<br>
with the appropriate program, it would do any computation, likewise,<br>
these backdoors are universal, because, by forcibly installing the<br>
appropriate code, they could forcibly do anything to the user.<br>
<br>
Another form of malicious functionality is tying the program to a<br>
specific remote server, as has happened with the so-called ‘Internet<br>
of Things’—which I call the Internet of Stings. If they shut off the<br>
server, the product—the refrigerator or the heating system—doesn’t<br>
work anymore. Sometimes these products have a universal backdoor, and<br>
the company can forcibly change the software such that the users can’t<br>
do certain things anymore, unless they go through an account on the<br>
company’s server—which means it’s tracking them. Anything that you<br>
have to make an account on is tracking you.<br>
<br>
How would you periodize the development of these malicious functionalities?<br>
<br>
In the 1980s, I would say proprietary-software developers had some<br>
ethical standards—in general you could count on them not to put<br>
anything malicious into a program, and if something of that sort was<br>
found it was a real scandal. In the 1990s, Microsoft’s Windows<br>
operating system did spy on people in some ways: it reported to<br>
Microsoft what programs were installed. But there were so many<br>
objections that Microsoft had to take it out—and there were also<br>
commercial competitors to Windows at that time. Once Microsoft had<br>
established an effective monopoly, it felt it had a licence to<br>
mistreat users and reinstalled the software. Windows xp had a<br>
universal backdoor when it was released in 2001.<br>
<br>
Apple and Microsoft—how would you compare them?<br>
<br>
Microsoft and Apple have been changing places. For a long time,<br>
Microsoft was the main enemy of users’ freedom, and then, for the past<br>
ten years or so, it’s been Apple. When the first iThings came out,<br>
around 2007, it was a tremendous advance in contempt for users’<br>
freedom because it imposed censorship of applications—you could only<br>
install programs approved by Apple. Ironically, Apple has retreated<br>
from that a little bit. If a program is written in Swift, you can now<br>
install it yourself from source code. So, Apple computers are no<br>
longer 100 per cent jails. The tablets too. A jail is a computer in<br>
which installation of applications is censored. So Apple introduced<br>
the first jail computer with the iPhone. Then Microsoft started making<br>
computers that are jails, and now Apple has, you might say, opened a<br>
window into the jail—but not the main door. A study of mobile apps<br>
found that, on average, each app informed a hundred different sites<br>
about the user; the worst one informed 2,000 sites. [2]<br>
<br>
What about Google?<br>
<br>
Google distributes proprietary software—parts of Android are<br>
proprietary—which includes a backdoor. With very few exceptions, all<br>
Google services require running non-free software; it’s Javascript in<br>
a webpage, but it’s still non-free software that they insist you run<br>
on your computer. And of course Google does other bad things,<br>
including collecting lots of data from users. Gmail goes through<br>
Google Services, and Google looks at it to try to learn things about<br>
people.<br>
<br>
Facebook, Instagram, YouTube, Skype?<br>
<br>
I have never been a used of Facebook—I call them ‘useds’, not ‘users’,<br>
because Facebook is using them. If people take photos of me, I ask<br>
them not to post them on Facebook. Instagram is the same, as far as<br>
I’m concerned, since it’s the same company. The bad thing about<br>
YouTube is that you have to run non-free software to watch something<br>
from the site in the usual way, and it doesn’t offer an option to<br>
download unless you use specialized software. Skype is designed to be<br>
snooped on by Microsoft. But there are free-software<br>
alternatives—Linphone, Ekiga, Jitsi. The Free Software Foundation’s<br>
high-priority projects include developing real-time voice and video<br>
chat, as well as a free phone operating system.<br>
<br>
How does the periodization of these technological developments relate<br>
to that of state surveillance?<br>
<br>
I started to be concerned about surveillance in the 1990s, when I<br>
found out how portable phones were being tracked and learned about the<br>
spying going on through Windows. In the late 1990s, the us law that<br>
enabled wire-tapping on telephone exchanges was extended to digital<br>
servers. But the big change came after the second September 11<br>
attacks—the 2001 us terror attacks, that is, not the Pinochet coup in<br>
Chile.<br>
<br>
The nsa was given a huge amount of money for digital surveillance at that point.<br>
<br>
Right. The pat-riot Act was proposed then—I always split the acronym<br>
like that; I’m not going to attach the word ‘patriot’ to such an<br>
un-American law that explicitly authorizes massive surveillance. When<br>
a program spies on its users and sends the data to a us company, under<br>
the Act the fbi can collect all that personal data without even going<br>
to court. Worse, the data can be used to profile people, and then<br>
manipulate them.<br>
<br>
Was it from this point that so-called ‘big data’ really began to<br>
develop into something that could be harvested and scanned?<br>
<br>
Maybe it was just beginning then, but I think the real collection of<br>
lots of information about people, and the warping of technology into a<br>
scheme to collect people’s data, didn’t start until five years or so<br>
after that. Of course, there are other forms of<br>
surveillance—surveillance is not solely done through non-free<br>
software. By rejecting non-free software, which we have plenty of<br>
other reasons to do, we block certain paths for surveillance over us,<br>
but not all. For instance, the cameras on the street that recognize<br>
licence plates, and maybe now faces—we can’t block that by insisting<br>
on free software on our computers. The only protection against that<br>
kind of surveillance is political. We need to demand, and campaign for<br>
parties that will protect our privacy from government oppression.<br>
<br>
But you think that the question of surveillance intersects with the<br>
issue of free software?<br>
<br>
They’re related issues—I don’t know what it means for issues to intersect.<br>
<br>
Okay. How is the free-software movement related politically to other<br>
issues—does it have any natural allies?<br>
<br>
The free-software movement doesn’t require you to have any particular<br>
political stand on other issues. And the Free Software Foundation<br>
doesn’t take a position on other political issues, except to defend<br>
human rights in computing—because the freedom to control your<br>
computing must be regarded as a human right. That also includes not<br>
surrendering your computing to anybody else’s server, because you<br>
can’t control how it’s done by someone else’s computer; those services<br>
that offer to do your computing for you are inviting you to give up<br>
your freedom. We oppose general surveillance, because that’s a<br>
violation of basic human rights. But, for instance, there are<br>
right-wingers that support the free-software movement. We welcome<br>
them. I don’t agree with them on other things, but I’m happy to have<br>
their support in campaigning for free software.<br>
<br>
Basically, free software combines capitalist, socialist and anarchist<br>
ideas. The capitalist part is: free software is something businesses<br>
can use and develop and sell. The socialist part is: we develop this<br>
knowledge, which becomes available to everyone and improves life for<br>
everyone. And the anarchist part: you can do what you like with it.<br>
I’m not an anarchist—we need a state so we can have a welfare state.<br>
I’m not a ‘libertarian’ in the usual American sense, and I call them<br>
rather ‘antisocialists’ because their main goal is a laissez-faire,<br>
laissez-mourir economy. People like me are the true libertarians. I<br>
supported Bernie Sanders for President—Clinton was too right-wing for<br>
me—and the Green Party.<br>
<br>
Would it be quite right to say there’s no anti-capitalist dynamic to<br>
free software? After all, capitalism proper involves excluding most of<br>
the population from means of production, and free software makes such<br>
means readily available to anyone. Market exchange is another matter,<br>
and could also characterize libertarian socialism, for example.<br>
<br>
As I understand the term capitalism, it doesn’t necessarily mean that<br>
there are quasi-monopolies or oligopolies that politically dominate<br>
the world. I do condemn the current system of plutocracy very<br>
strongly. When I talk about capitalism, I mean private business. There<br>
is a difference between the economic system that the us has now and<br>
what it had in 1970. There are two different forms of capitalism, you<br>
might say—this one I call extreme capitalism, or plutocracy, in which<br>
businesses dominate the state. I’m definitely against plutocracy, but<br>
I don’t wish to identify capitalism with plutocracy, because there are<br>
other forms of capitalism that I have seen in my life. Basically,<br>
businesses shouldn’t decide our laws.<br>
<br>
So your political orientation would be to some kind of social<br>
democracy with a mixed economy?<br>
<br>
Yes. But that’s economic; and my political orientation is democracy<br>
and human rights. But to have democracy means the people control the<br>
state, which means the businesses don’t. So, in terms of economy, yes,<br>
I favour having private businesses. I don’t think state restaurants<br>
could have made the meal we just had.<br>
<br>
This raises the issue of how free software is related to broader<br>
questions of control and ownership.<br>
<br>
Control and ownership are not the same. Some people propose a<br>
capitalist-market solution to data harvesting and surveillance, which<br>
is that people should ‘own’ their data and be paid a tiny amount for<br>
surrendering it to a company. [3] This is a complete red herring and<br>
won’t solve any practical problems. Another approach, adopted by the<br>
new European Data Protection Directive, is to require people to give<br>
‘consent’ for their data to be collected. That’ll help against certain<br>
things—namely, data collection by systems that you never knew you were<br>
using, or never agreed to use. But it’s so easy for them to get formal<br>
consent that it’s a worthless barrier. Any site that has a Facebook<br>
‘like’ button, or a Google Analytics tracker, just needs to include in<br>
its Terms and Conditions—which nobody reads—a statement saying: ‘I<br>
consent to my visit being recorded by various other sites that have an<br>
agreement with this one.’ I call this ‘manufacturing consent’. Consent<br>
regulations may be useful against Facebook, because it’s been tracking<br>
visitors to thousands, if not millions, of websites for many years,<br>
and hasn’t even bothered to get this sort of consent—so Facebook is in<br>
trouble if it uses any of this data. But in future this will probably<br>
just be a formal restriction, and not a matter of substance. We should<br>
not allow any collection of data that goes beyond the minimum that is<br>
inescapably necessary for the site to do its main job—and then we<br>
should develop technology to reduce that minimum-necessary amount.<br>
<br>
Does that imply that, ideally, people would be doing more computation<br>
on their own devices?<br>
<br>
Yes, people should. People who are not programmers are likely to<br>
think, ‘Well, I’ll never have control—I don’t know how to change these<br>
programs.’ And that may be true, that they’ll never directly change<br>
programs themselves. But when you’re using a free program to do the<br>
job, there’s a user community, with many users, some of whom are<br>
programmers. They can fix bugs, they can add features—it means the<br>
program will never be discontinued, because the user community will be<br>
able to fix the problems, and you’ll get the benefit—and not only<br>
that: the fact that the program is free is a powerful deterrent to<br>
malicious functionalities, because the programmers are aware that they<br>
have no power over the users. This means they don’t get corrupted, the<br>
way proprietary developers do.<br>
<br>
This brings us back to ownership and control. With free software, you<br>
always own your copy, which goes with having control over it. You<br>
don’t own the program, in an abstract sense—well, if you wrote it, you<br>
do. But usually the program was written by others, so you don’t; but<br>
you do own your copy. Whereas, with proprietary software, the<br>
developers normally say that users can never own a copy. Proprietary<br>
software typically carries what I’d call an anti-socializing contract,<br>
usually known as end-user licence agreements, or eulas. We speak of<br>
the socialization of children—teaching them to be nice to other<br>
people, help and cooperate with others. Well, this contract does the<br>
exact opposite—people have to commit to not making copies for other<br>
people, not lending or giving their copies to others. I’ve never<br>
agreed to such a thing. Sad to say, most people already have, without<br>
thinking about what they were ceding.<br>
<br>
That suggests there ought to be a kind of imperative for all users to<br>
commit acts of civil disobedience?<br>
<br>
Absolutely. But, beyond that, governments should pass laws saying that<br>
agreements of that nature are invalid—that they have no legal force in<br>
this jurisdiction, no matter where they were signed. This applies to<br>
non-negotiated contracts, where the terms are just imposed: ‘If you<br>
want this, agree to the contract’—there’s no chance to negotiate, and<br>
that’s the great abuse. It’s different when the parties actually talk<br>
about what terms they want; there may be no need to restrict those.<br>
But when the powerful bully the weak into agreeing to contracts—we<br>
have to reject that strategy on a moral plane. I believe that the<br>
freedoms of free software should be inalienable rights of all users of<br>
software. But also, perhaps, the freedom to give, lend or share copies<br>
of any published work should be an inalienable right. Governments<br>
should actively block or prohibit all methods that deny people that<br>
right. These anti-socializing contracts are one method—they’re the<br>
legalistic method; they should be rendered legally without force. As<br>
for digital restrictions management, that should put you in prison for<br>
many years—it should be a felony to make, sell, lease, import products<br>
with drm.<br>
<br>
In material terms, the biggest impact that free software has had in<br>
the world is its use by the technical community, on servers and by big<br>
business . . .<br>
<br>
And that is not my goal. I wanted to give freedom to the users, not<br>
the companies. Yes, I believe that a company ought to have control of<br>
its own computing. It doesn’t make the world a better place if Company<br>
A’s computing is under the control of Company B. But liberating<br>
companies from this mistreatment is not my priority. It’s humans, it’s<br>
people, that I want to liberate.<br>
<br>
But the question remains: gnu /Linux distributions are widely used for<br>
web servers—probably a majority of servers run them. So when people<br>
are interacting with a website, they will typically be interacting<br>
with free software in some sense, but that doesn’t prevent the sort of<br>
abuses you’ve been detailing here—backdoors, data collection.<br>
<br>
When you visit a website, you are not using the software that’s in the<br>
web server—the organization which owns the website is using that<br>
software, to talk to you. Computer scientists are accustomed to<br>
analysing systems by saying that the thread of execution can move from<br>
one computer or process to another. In some scenarios, it makes<br>
sense—technically. But I don’t think it makes sense for a discussion<br>
about ethics, not when the scenario involves entities that can’t trust<br>
each other and whose interests conflict. The scenario in which I visit<br>
your website involves two entities, you and me. The programs in your<br>
web server are working for you. The browser and other programs in my<br>
laptop are working for me. They are not a single system, they are two<br>
systems which communicate. Of course you don’t control the software in<br>
some other entity’s website—why should you? And how could you? You<br>
don’t, and you shouldn’t—but that’s fine. If I’m talking with you, I’m<br>
not using your brain. But we’re talking, and you’re using your brain.<br>
<br>
Certainly, users visiting a website are likely to be interacting with<br>
someone else’s computer that’s running free software, and that doesn’t<br>
necessarily help those users. Just because the server uses free<br>
software, and the company whose server it is can change it, doesn’t<br>
mean visitors are treated ethically. And whether or not a website is<br>
on a computer that is running free software, it may be collecting data<br>
about users. Also, it’s very likely to be sending non-free software to<br>
their browsers, to run on their machines. Many websites do this. That<br>
software does the visitor’s computing, and the visitor doesn’t control<br>
it—because it’s non-free software, and because it’s running directly<br>
as it’s sent from the server. It’s not easy for the user to interpose<br>
control over that.<br>
<br>
Suppose some of the software in the web server is not free. Who does<br>
that hurt? The entity whose website it is—so I would urge it to free<br>
its websites by switching to free software; that’s in its interest.<br>
But I have no reason to boycott a website just because there’s<br>
non-free software running it, just as I have no reason to boycott a<br>
restaurant because their cash register has non-free software in it—I<br>
don’t use their cash register.<br>
<br>
So how, more broadly, should we address that issue of entities on the<br>
internet that may well use free software on their own servers, but<br>
interact with their user base in very opaque ways, wielding a lot of<br>
power over data collection and so forth?<br>
<br>
Collecting data is a separate issue, and it’s the responsibility of<br>
separate laws. Free software avoids a particular mechanism of<br>
injustice—but it’s not coterminous with all of ethics for computing.<br>
And this shouldn’t surprise people; there are various ethical issues<br>
in life. If you look at a store, for example, there are different<br>
ethical questions that can arise, and you wouldn’t expect that one<br>
requirement would fix them all. For instance, the store can mistreat<br>
the staff. The solution to that might be to encourage unionization,<br>
have strict laws to prevent wage theft. Then there’s discrimination,<br>
which is mistreatment of those who aren’t staff but would like to be.<br>
There are other issues that affect the customers only—for instance,<br>
are the products what they are said to be? A union might ensure the<br>
staff get paid, but might not care about cheating the customers. There<br>
are multiple ethical issues; and we shouldn’t expect that correcting<br>
one kind of injustice automatically corrects the other kinds.<br>
<br>
Given that that’s the case, again, are there related political<br>
campaigns that you would support?<br>
<br>
Putting an end to massive surveillance that endangers human rights.<br>
For this, we need to require that all systems be designed to limit the<br>
amount of data they can collect. You see, data, once collected, will<br>
be misused. The organization that collects them can misuse them; rogue<br>
employees of that organization can misuse them; third parties,<br>
crackers, can break into the computer system and steal the data and<br>
misuse them; and the state can take them and misuse them. Laws<br>
restricting the use of the data, if properly enforced, would limit<br>
misuse by the organization collecting the data, and maybe to some<br>
extent misuse by the government—though not enough, because the state<br>
will usually give itself exceptions to do what it wants. It will write<br>
the laws so it’s allowed to get those data, and use them to find<br>
whistleblowers and dissidents.<br>
<br>
On the other hand, if the system is designed not to collect data, then<br>
it can’t be used for that, unless the state intervenes to alter it. So<br>
unless you can be confident that the state will respect<br>
democracy—which is hardly the case here—and respect the right to<br>
dissent, you should make sure that massive surveillance is not going<br>
on. I’ve proposed various technical approaches for designing systems<br>
to collect much less data—you can see them on the gnu website. [4] The<br>
basic point is: when there’s another Snowden, how do we make sure the<br>
state can’t find that person?<br>
<br>
You would argue for legislative campaigns to restrict this type of surveillance?<br>
<br>
Legislative and juridical—there are people who go to court to try to<br>
stop the collection of data, or limit the use of it. My point, though,<br>
is that if we really want to secure our privacy, we’ve got to stop the<br>
collection of the data. Rules to limit how the collected data may be<br>
used may do some good, but they’re not very strong protection. The<br>
privacy issue is broader—the cameras that recognize licence plates and<br>
track cars: this has been used to crack down on dissent. For instance,<br>
there was a picket at a uk coal-fired power plant, and suspected<br>
protesters were tracked and then stopped on a road by cops, who held<br>
them there until the protest was over, not bothering to charge them<br>
with anything. [5] It’s clear that they were not suspected of any<br>
crime—there were no grounds to charge them with anything. It was a<br>
digital attack on dissent, surveillance used to sabotage democracy. It<br>
would be good to establish an archive of all these incidents.<br>
<br>
What’s your view of platform cooperativism—the idea of creating<br>
cooperative alternatives to things like Uber, for example?<br>
<br>
In general I’m in favour, but it doesn’t automatically address all the<br>
wrongs. Mistreatment of workers may be avoided by having a<br>
worker-owned cooperative—the workers will treat themselves as well as<br>
is feasible in the circumstances. But that doesn’t mean they will<br>
treat the customers ethically. What’s wrong with Uber? Well, one thing<br>
is, it pays drivers peanuts, which is why I call it Guber, and that’s<br>
a good reason to refuse to use it. But even worse is the way it<br>
mistreats customers, making them run non-free software and keeping a<br>
database of where each passenger has gone. Uber has actively tried to<br>
eliminate all other alternatives by running at a giant loss,<br>
undercutting competitors, aiming to drive them all out of business.<br>
Now, if that were replaced with a worker-owned cooperative, they might<br>
basically keep running it the same way, but with higher pay for the<br>
drivers, who are now the owners—which would not make it any more<br>
acceptable, in my view. It’s not just a matter of labour versus<br>
management, or whether a company is mistreating its workers; the<br>
rights of the customers are equally important, and just having a<br>
worker-owned cooperative will not guarantee that these are respected.<br>
<br>
How about a cooperative of users and workers? There’s been the idea of<br>
Twitter’s user base buying it out.<br>
<br>
Maybe. I’m not sure whether it makes sense to do this for a ride<br>
company, though. What does it mean for the customers of a ride company<br>
to be co-owners? You can’t expect every passenger to do that. And if<br>
they were co-owners, that wouldn’t protect them at all unless they<br>
insisted on anonymity, and, at present, most people don’t think about<br>
it enough to insist.<br>
<br>
Perhaps the example of Twitter makes more sense; you could imagine a<br>
Twitter that was owned by its users and workers. And it’s imaginable<br>
that the user community would be able to ensure that, for example,<br>
Twitter ran only free software.<br>
<br>
Oh, but that’s a different question. Of course, they ought to do that<br>
for their own control over their operations. Twitter probably does run<br>
mostly free software already, because that’s standard practice in<br>
servers. They’re probably running the gnu/Linux system, plus a lot of<br>
software that they wrote, which is free software in a trivial sense.<br>
But that’s not what affects justice for the users, as I’ve explained.<br>
<br>
What do you think about the idea of creating socialized alternatives<br>
to the data-hoarding tech giants—as mooted in these pages by Evgeny<br>
Morozov? [6]<br>
<br>
I think it makes little difference whether data are collected by<br>
governments or by companies, because either way the data menace<br>
whistleblowers and dissidents. Whatever data businesses collect, the<br>
state can easily get.<br>
<br>
How about the various attempts to create federated alternatives to<br>
Facebook and Twitter—social-communication software like gnu social and<br>
Mastodon?<br>
<br>
Not just attempts—they work. And from what I hear Mastodon, which is a<br>
sort of upward-compatible offshoot of gnu social, is getting to be<br>
rather popular. However, the difficulty with a social network is its<br>
‘network effect’. Suppose Facebook released all its software as free<br>
software: you could set up a server doing the exact same things that<br>
Facebook’s servers do, but you wouldn’t initially have any users. The<br>
main thing that pressures people to be Facebook useds is that the<br>
people they know, or want to communicate with, are useds as well. My<br>
ethical analysis of a communication system with a network effect is<br>
that the useds of Facebook are victim-coperpetrators. They may<br>
recognize that it mistreats its useds, yet they go along and become<br>
one because other people are pressuring them to. But, as a result of<br>
surrendering, which means they’re victims, they then become part of<br>
the pressure on others to do the same—a victim-coperpetrator, in other<br>
words. This is the same with Skype, and any other such system that<br>
mistreats people but which lets them communicate with each other.<br>
Normally, if you’re using a non-free program, you’re the victim of<br>
that, and so I wouldn’t rebuke you, I would only encourage you to<br>
stop. But, where there’s a network effect, I would say it’s your moral<br>
duty to cease pressuring others to use, and be used by, that system.<br>
<br>
I’ve found gnu social close to a replacement for Twitter, whereas<br>
Diaspora was more like Facebook.<br>
<br>
That’s what I gathered. I’m in favour of projects like these, because<br>
I know they’re useful for other people, but it wouldn’t fit my<br>
lifestyle. I just use email. You can call me the Mailman—as in True<br>
Names, Vernor Vinge’s science-fiction story.<br>
<br>
It’s often argued now that attempts to deter American corporations<br>
from massive data collection, in the name of privacy or civil<br>
liberties, will allow China to win the new ‘space race’ in<br>
machine-learning and artificial intelligence. What’s your response to<br>
that?<br>
<br>
Freedom and democracy are more important than advancing technology. If<br>
China and the us are in a race for Orwellian tyranny, I hope the us<br>
loses. Indeed, the us should drop out of the race as soon as possible.<br>
Our society has been taught to overestimate the importance of<br>
‘innovation’. Innovations may be good, and they may be bad. If we let<br>
companies decide which innovations we will use, they will choose the<br>
ones that give them more of an advantage over us.<br>
<br>
A complementary argument is that Silicon Valley may have the advantage<br>
over China in terms of innovation, but that the next stage in ai will<br>
be about implementation—the sheer amount of data an organization can<br>
run through the algorithms, and the scale of its processing<br>
power—where China has the advantage of a population four times greater<br>
than the us. (This seems to be the claim of Kai-fu Lee in ai<br>
Superpowers.) How do you view these developments? What are the<br>
implications in terms of, first, software freedoms, and second, civil<br>
liberties?<br>
<br>
Such ais will work for companies; their use will be to help companies<br>
manipulate people better and dominate society more. I think we should<br>
restrict the collection of data about people, other than<br>
court-designated suspects. If that holds the companies back in<br>
developing ai techniques to help them dominate society, so much the<br>
better.<br>
<br>
Quantum computing is being touted as the next digital<br>
breakthrough—variable ‘qubits’ rather than the zeros and ones of<br>
conventional computing—supposedly opening the way to an exponential<br>
increase in computational power and machine-learning. Do you<br>
anticipate this having any implications for software freedom?<br>
<br>
This means that computers could do certain tasks faster (not all<br>
tasks). For the most part, that would be nice but would not<br>
fundamentally change anything. However, in one specific case, it could<br>
do great harm: our current public-key encryption algorithms would be<br>
broken. People are trying to develop adequate replacements before<br>
quantum computers are big enough to be used for this.<br>
<br>
Would the principles of the free-software movement apply to quantum<br>
computing, just as to conventional computing?<br>
<br>
Certainly. This is a general principle and doesn’t depend on details<br>
of the computer’s operation.<br>
<br>
What do you think have been the major victories and setbacks of the<br>
free-software movement?<br>
<br>
Of victories, having a free operating system—in other words, the<br>
existence of gnu/Linux. Before that, it was impossible to do anything<br>
on a computer without proprietary software. Internationally, there<br>
have been some partial legislative victories; several countries in<br>
Latin America have passed laws to move the government towards free<br>
software, but they vary in how strong they are. The one in Peru is<br>
rather weak. Argentina has not passed one, but some provinces have.<br>
Ecuador was the best example of a system designed to cause migration,<br>
but the person that Correa put in charge of that agency didn’t do his<br>
whole job. I think they migrated the public schools, which is very<br>
important. A similar thing happened in Venezuela, except that the<br>
policy was not as coherently designed, and some medium-level officials<br>
went against it, and the ministers were changed over and over, and the<br>
activists had trouble getting political support from the ministers to<br>
back them up. In India, the state of Kerala migrated some levels of<br>
schooling to free software a decade ago—at the time, they couldn’t<br>
migrate the last years of high school, because those were controlled<br>
by a curriculum board. India adopted a central law saying that there<br>
had to be a preference for what they call ‘open source’, but in fact<br>
they’re using the definition of free software.<br>
<br>
What about the us public school system?<br>
<br>
It’s just all bad. As for setbacks: the three main ones are mobile<br>
computing—phones and tablets, designed from the ground up to be<br>
non-free. The apps, which tend now to be non-free malware. And the<br>
Intel management engine, and more generally the low-level software,<br>
which we can’t replace, because things just won’t allow us to do so.<br>
<br>
Can you imagine a situation in which there was no longer any unfree<br>
software, or is that essentially utopian? Is there any way to get<br>
there from here?<br>
<br>
People said that having a free operating system was utopian and<br>
impossible. They argued that there was no use even trying, because it<br>
was so difficult. But I think that there’s a fundamental error in that<br>
question, which is that it assumes that giving up would be okay. I<br>
don’t use non-free software. I don’t use the facilities that require<br>
users to run non-free software. So, the free software we have is<br>
already useful—and I’m sure we can achieve a lot more if we try than<br>
if we give up. I don’t say that free software is more important than<br>
defeating plutocracy, or more important than curbing global heating;<br>
and I wouldn’t try to argue that people should work on one rather than<br>
another. But we’ve got to have people working on this one—and people<br>
in the software field can’t avoid the issue of free versus proprietary<br>
software, freedom-respecting versus freedom-trampling software. We<br>
have a responsibility, if we’re doing things in the software field, to<br>
do it in a way that is ethical. I don’t know whether we will ever<br>
succeed in liberating everyone, but it’s clearly the right direction<br>
in which to push.<br>
<br>
<br>
________________________________<br>
<br>
[1] See Sam Williams, Free as in Freedom: Richard Stallman’s Crusade<br>
for Free Software, Sebastopol, ca 2002, ch. 1 (also available online<br>
in an edition revised by Stallman).<br>
<br>
[2] Luigi Vigneri et al., ‘Taming the Android AppStore: Lightweight<br>
Characterization of Android Applications’, Eurecom Research Report<br>
RR-15-305, 27 April 2015.<br>
<br>
[3] See Rob Lucas, ‘Xanadu as Phalanstery’, nlr 86, March–April 2014.<br>
<br>
[4] See Stallman, ‘How Much Surveillance Can Democracy Withstand?’,<br>
available on <a href="http://gnu.org" rel="noreferrer" target="_blank">gnu.org</a>; originally published in Wired, 14 October 2013.<br>
<br>
[5] Paul Lewis and Rob Evans, ‘Activists repeatedly stopped and<br>
searched as police officers “mark” cars’, Guardian, 25 October 2009.<br>
<br>
[6] Evgeny Morozov, ‘Socialize the Data Centres!’, nlr 91,<br>
January–February 2015.<br>
#  distributed via <nettime>: no commercial use without permission<br>
#  <nettime>  is a moderated mailing list for net criticism,<br>
#  collaborative text filtering and cultural politics of the nets<br>
#  more info: <a href="http://mx.kein.org/mailman/listinfo/nettime-l" rel="noreferrer" target="_blank">http://mx.kein.org/mailman/listinfo/nettime-l</a><br>
#  archive: <a href="http://www.nettime.org" rel="noreferrer" target="_blank">http://www.nettime.org</a> contact: <a href="mailto:nettime@kein.org" target="_blank">nettime@kein.org</a><br>
#  @nettime_bot tweets mail w/ sender unless #ANON is in Subject:<br>
_______________________________________________<br>
Networked-labour_igopnet mailing list<br>
<a href="mailto:Networked-labour_igopnet@lists.igopnet.cc" target="_blank">Networked-labour_igopnet@lists.igopnet.cc</a><br>
<a href="http://grups.pangea.org/mailman/listinfo/networked-labour_igopnet" rel="noreferrer" target="_blank">http://grups.pangea.org/mailman/listinfo/networked-labour_igopnet</a><br>
</div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature">P2P Foundation: <a href="http://p2pfoundation.net" target="_blank">http://p2pfoundation.net</a>  - <a href="http://blog.p2pfoundation.net" target="_blank">http://blog.p2pfoundation.net</a> <br><br>Connect: <a href="http://p2pfoundation.ning.com" target="_blank">http://p2pfoundation.ning.com</a>; Discuss: <a href="http://lists.ourproject.org/cgi-bin/mailman/listinfo/p2p-foundation" target="_blank">http://lists.ourproject.org/cgi-bin/mailman/listinfo/p2p-foundation</a><br><br>Updates: <a href="http://del.icio.us/mbauwens" target="_blank">http://del.icio.us/mbauwens</a>; <a href="http://friendfeed.com/mbauwens" target="_blank">http://friendfeed.com/mbauwens</a>; <a href="http://twitter.com/mbauwens" target="_blank">http://twitter.com/mbauwens</a>; <a href="http://www.facebook.com/mbauwens" target="_blank">http://www.facebook.com/mbauwens</a><br><br><br><br><br></div></div>