Jump to content

Manual:TikiWiki Conversion/ru

From mediawiki.org

Эта инструкция используются для конвертации страниц из TikiWiki версии 1.9.3.1 как на вики, так и на HTML разметку версии 1.10.4 MediaWiki. Сценарий принимает TAR-архив, экспортируемый из TikiWiki и возвращает XML файлы MediaWiki.

Эта инструкция пригодна также и для других версий, синтаксис которых отличается не слишком сильно, но, как видите, у нас была только одна маленькая wiki для конвертации; она протестирована не слишком хорошо. Она работает со всем синтаксисом в нашей TikiWiki, несмотря на то, что он представлял собой жуткую смесь чистого вики-синтаксиса, чистого html и чего-то среднего между ними.

Все исправления страниц будут импортированы вместе с их историей и вкладчиками.

Авторы страниц будут включены в список авторов TikiWiki. Они могут существовать или не существовать в MediaWiki и эти страницы будут приписаны любому, кто зарегистрируется, используя это имя пользователя.

Загруженные в TikiWiki файлы будут загружены и в MediaWiki, а их постоянные ссылки нужно будет установить вручную. Сценарий выведет список страниц, содержащих закачки файлов.

Изображения из TikiWiki включаются как внешние изображения, которые повлекут изменение настроек внешних изображений в вашей MediaWiki. Тем не менее, это может включить опцию "позволять изображения только с одного URL".


Требования

[edit]
  • Администраторский доступ к вашей TikiWiki
  • Администраторский доступ к установленной MediaWiki
  • Доступ к базе данных TikiWiki и возможность выполнять команды MySQL
  • Питон (не уверены какая версия требуется - мы использовали 2.5.1)
  • Скрипт конвертации на языке питон

Экспорт

[edit]
  • Чтобы экспортировать данные из TikiWiki, перейдите на Admin (или Admin Home) в вашей Вики и выберите ссылку "Export" в "Export Wiki Pages".
  • Это создаст TAR-архив, export.tar из MIME (RFC2045) message (RFC2822) файлов.
  • Вам также нужно будет создать XML-дамп метаданных для Tiki-изображений. Если имя вашей базы данных "tiki" и префикс ваших таблиц "tiki_", то на требуемых данных нужно будет выполнить следующие запросы:
SELECT tiki_images.galleryID, tiki_images.imageID, name, filename FROM tiki.tiki_images, tiki.tiki_images_data WHERE tiki_images.imageID=tiki_images_data.imageID
  • Если вы желаете исключить какие-либо страницы из экспорта, чтобы возможно сохранить их приватными, тогда вам нужно с помощью XML-файла точно выделить, какие страницы нужно исключить. Вы можете сделать это вручную или с использованием следующего запроса:
SELECT pageName, groupName, permName FROM tiki.users_objectpermissions, tiki.tiki_pages where objectType='wiki page' and objectId=page_id
который выберет страницы с любыми ограничениями, хотя вы можете определить особые ограничения. Сценарий исключит любые страницы, чьи имена содержаться в элементе <field name='имяСтраницы'> в этом XML-файле.
  • Замечание: используйте mysql команды с флагом '-X' для создания вывода в формате XML.

Запуск сценария

[edit]
  • Если вы хотите сохранить какие-либо страницы приватными, вы можете использовать XML-файл, созданный выше, или использовать расширение HNP, чтобы определить их заранее.
  • Скопируйте исходный код в файл, озаглавленный tikiToMwiki.py
  • Запустите сценарий:
python tikiToMwiki.py [options] <tiki source URL> [tiki export]
  • где
  • tiki source URL - предшествующий URL для URL-адресов всех tikiwiki страниц, включая замыкающий слеш. Например, 'http://yourdomain.com/tiki/'
  • tiki export - TAR-файл, полученный при экспорте из TikiWiki. Если этот параметр не указан, сценарий по умолчанию будет считывать данные из стандартного потока ввода (stdin).
  • options - опции
  • -o output file - базовое имя файла(ов), которые будут на выходе - сценарий может разделить вывод на множество маленьких файлов так, что выходные файлы будут пронумерованы. Например, если output file - 'wiki.xml', то сценарий создаст файлы, 'wiki0.xml', 'wiki1.xml' и т. д. По умолчанию вывод будет осуществлён в файлы с именем tiki export, где ".tar" будет заменён на ".xml" или в стандартный поток вывода (stdout), если tiki export не задан. Если вы укажете "-o -", то вывод будет направлен в stdout.
  • -k image file - XML-файл, содержащий метаданные изображений
  • -i tiki image URL - URL-адрес (возможно относительный), используемый для доступа к изображениям, когда используются их идентификаторы или имена. Например, '/UserFiles/Image/tiki/'
  • Флаг -n определяет, что страницы будут принудительно создаваться без оглавления. По умолчанию MediaWiki добавляет оглавление на страницы с тремя и более заголовками, вы можете решить не использовать оглавление, чтобы сделать страницы более похожими на оригинальные страницы TikiWiki.
  • -j new image URL - новый URL-адрес для файлов изображений (включая замыкающий слеш), если не нужно использовать старое месторасположение изображений. Вы можете задействовать эту опцию, если вам необходимо изменить расположение изображений TikiWiki.
  • -m max - максимальный размер новых файлов в Мб. По умолчанию равен 1. Максимальный размер импорта в MediaWiki - 20 Мб.
  • -p private pages - XML-файл, содержащий список всех страниц, которые вы желаете исключить из импорта.
  • Если ваша вики содержит картинки, которые вам нужны, запустите сценарий с параметрами -i и -k.
  • Если вы готовите tiki export файл как аргумент командной строки, любые внутренние ссылки, которые находятся в неправильном регистре будут исправлены (MediaWiki чувствителен к регистру, TikiWiki - нет). Если вы используете stdin для подачи tiki export, то ссылки не могут быть исправлены.


Импорт

[edit]
  • Чтобы импортировать в MediaWiki XML-файл(ы) используйте один из этих методов импорта и загрузите каждый XML-файл.

Изменение настроек

[edit]

Если что-то пойдёт не так, вы можете использовать сценарий поддержки deleteBatch, чтобы удалить несколько страниц. Если вы импортируете страницы, которые уже были предварительно импортированы, то эти страницы не будут перезаписаны, вам нужно удалить страницы, а затем импортировать их снова.

Лицензия

[edit]

GNU General Public License (GPL)

Автор: Рози Кларксон

Исходный код

[edit]
#    Copyright 2008 Rosie Clarkson, Chris Eveleigh development@planningportal.gov.uk
#
#    This program is free software: you can redistribute it and/or modify
#    it under the terms of the GNU General Public License as published by
#    the Free Software Foundation, either version 3 of the License, or
#    (at your option) any later version.
#
#    This program is distributed in the hope that it will be useful,
#    but WITHOUT ANY WARRANTY; without even the implied warranty of
#    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
#    GNU General Public License for more details.
#
#    You should have received a copy of the GNU General Public License
#    along with this program.  If not, see <http://www.gnu.org/licenses/>.

import sys,os,time,tarfile
from email.Parser import Parser
from xml.dom import minidom 
import xml.parsers.expat
import xml.sax.saxutils as saxutils 
import htmlentitydefs
from HTMLParser import HTMLParser
from urllib import quote,unquote
from urlparse import urljoin
from optparse import OptionParser

#add any other links you may want to map between wikis here
url_maps = {'http://tikiwiki.org/RFCWiki':'http://meta.wikimedia.org/wiki/Cheatsheet'}

#checks for HTML tags
class HTMLChecker(HTMLParser):
	
	def handle_starttag(self, tag, attrs):
		global validate
		validate = True
		return True
	def handle_endtag(self, tag):
		global validate
		return True

#Mediawiki relies on having the right number of new lines between syntax - for example having two new lines in a list starts a new list.
#The elements that do/don't start a new line in HTML can be controlled by the CSS. The CSS used depends on which skin you're using.
class HTMLToMwiki(HTMLParser):
	global wikitext
	global sourceurl
	global pages
	global uploads
	global headings
	link = False #if the parser is within a link
	src = ''
	innowiki = False
	inem = False #if the parser is within italics
	instrong = False #if the parser is within bold
	inheading = False #if the parser is within a heading
	list=0 #whether the parser is within an ordered list (is numeric to deal with nested lists)
	litem=0 #whether the parser is within a list item - in order to deal with <p> and <br/> tags in ways that wont break it
	ul_count=0 #the number of ul tags used for nested lists
	ol_count=0 #the number of ol tags used for nested lists
	col_count=0
	def handle_starttag(self, tag, attrs):
		if self.innowiki:
			completeTag='<'+tag
			for attr in attrs:
				completeTag+=' '+attr[0]+'="'+attr[1]+'"'
			wikitext.append(completeTag+'>')
		else:
			if tag == 'nowiki':
				wikitext.append('<nowiki>')
				self.innowiki=True
			if tag == 'a':
				self.src=''
				for att in attrs:
					if att[0] == 'href':
						self.src = att[1]
				if self.src in url_maps:
					self.src=url_maps[self.src]
				#deals with uploads
				if self.src.find('tiki-download_file.php')!=-1:
					uploads.append(self.src)
				self.link=True
			if tag == 'ol':
				self.ol_count=self.ol_count+1
				self.list=self.list+1
			
			if tag == 'ul':
				self.ul_count=self.ul_count+1
			if tag == 'li':
				#append the right no. of # or *s according to the level of nesting
				self.litem=self.litem+1
				if self.list>0:
					wikitext.append('\n'+('#'*self.ol_count))
				else:
					wikitext.append('\n'+('*'*self.ul_count))
			if tag == 'img':
				src=''
				for att in attrs:
					if att[0] == 'src':
						src = att[1]
				src = quote(src)
				#we have several different ways of specifying image sources in our tiki
				imagepath = urljoin(sourceurl, src)
				if options.newImagepath != '':
					imagepath=urljoin(options.newImagepath, src.split('/')[-1])
				# the pic tag is used later to identify this as a picture and process the correct mwiki syntax
				wikitext.append('<pic>'+imagepath+' ')	
			if tag == 'table':
				wikitext.append('\n{|')
				for att in attrs:
					#table formatting
					wikitext.append(' '+att[0]+'="'+att[1]+'"')
			if tag == 'tr':	
				wikitext.append('\n|-')
				self.col_count=0
			if tag == 'td':	
				self.col_count+=1
				if self.col_count > 1:
					wikitext.append('\n||')			
				else:
					wikitext.append('\n|')			
			if tag == 'caption':	
				wikitext.append('\n|+')
			if tag in ('strong','b'):
				self.instrong=True
				wikitext.append("'''")
			if tag in('em','i'):
				self.inem=True
				wikitext.append("''")
			if tag =='p':
				#new lines in the middle of lists break the list so we have to use the break tag
				if self.litem==0:
					br = '\n'
				else: 
					br = '<br/>'
				#newlines in the middle of formatted text break the formatting so we have to end and restart the formatting around the new lines
				if self.inem==True:
					br = "''"+br+br+"''"
				if self.instrong==True:
					br = "'''"+br+br+"'''"
				wikitext.append(br)	
			if tag =='h1':
				self.inheading = True
				#headings must start on a new line
				wikitext.append('\n\n==')
				headings.append(tag)
			if tag =='h2':
				self.inheading = True
				wikitext.append('\n\n===')
				headings.append(tag)
			if tag =='h3':
				self.inheading = True
				wikitext.append('\n\n====')
				headings.append(tag)
				
	def handle_endtag(self, tag):
		if tag =='nowiki':
			wikitext.append('</nowiki>')
			self.innowiki=False
		if not self.innowiki:
			if self.link==True:
				self.src=''
				self.link=False
			if tag == 'img':
				wikitext.append('</pic>')
			if tag == 'ol':
				self.ol_count=self.ol_count-1
				self.list=self.list-1
				wikitext.append('\n\n')
			if tag == 'ul':
				self.ul_count=self.ul_count-1
				wikitext.append('\n\n')
			if tag == 'li':
				self.litem=self.litem-1
			if tag == 'table':
				wikitext.append('\n\n|}')
			if tag in('strong','b'):
				self.instrong=False
				wikitext.append("'''")
			if tag in('em','i'):
				self.inem=False
				wikitext.append("''")
			if tag =='h1':
				self.inheading = False
				wikitext.append('==\n\n')
			if tag =='h2':
				self.inheading = False
				wikitext.append('===\n\n')
			if tag =='h3':
				self.inheading = False
				wikitext.append('====\n\n')
			if tag =='p':
				if self.inheading == True:
					br=''
				elif self.litem==0:
					br = '\n'
				else: 
					br = '<br/>'
				if self.inem==True:
					br = " ''"+br+"''"
				if self.instrong==True:
					br = " '''"+br+"'''"
				wikitext.append(br)
			if tag == 'br':
				if self.inheading == True:
					br=''
				elif self.litem==0:
					br = '\n'
				else: 
					br = '<br/>'
				if self.inem==True:
					br = " ''"+br+"''"
				if self.instrong==True:
					br = " '''"+br+"'''"
				wikitext.append(br)
			if tag == 'hr':
				wikitext.append('\n----\n')	
		else:
			wikitext.append('</'+tag+'>')
	#check for symbols which are mwiki syntax when at the start of a line
	def check_append(self,data):
		stripped = data.lstrip()
		for symbol in ('----','*','#','{|','==','===','===='):
		        if stripped.startswith(symbol):
				if wikitext!=[]:
					if wikitext[:-1][:-1][-1]=='\n':
						if symbol.startswith('=')==False:
							data= '<nowiki>'+symbol+'</nowiki>'+stripped[len(symbol):]
						else:
							if data.find(symbol,len(symbol)):
								data= '<nowiki>'+symbol+'</nowiki>'+stripped[len(symbol):]
		return data

	def handle_data(self,data):
		if self.link==True:
			#sometimes spaces are in the piped data (probably because of our editor) so we need to make sure we add that before the link
			space = ''
			if data.startswith(' '):
				space = ' '
			if self.src.startswith(sourceurl+'tiki-download_file.php'):
				wikitext.append(space+'['+self.src+' '+data+']')
			elif self.src.startswith(sourceurl):
				if self.src.find('page=')!=-1:
					ptitle = self.src.split('page=')
					page = ptitle[1].replace('+',' ')
					for file in pages:
						#mwiki is case sensitive to page names and tikiwiki isn't so check that the file actually exists
						if file.lower()==page.lower():
							page = file
					wikitext.append(space+'[['+page+'|'+data+']]') 
			else:
				#catch relative urls
				if self.src.startswith('..'):
					self.src = urljoin(sourceurl, self.src)
				wikitext.append(space+'['+self.src+' '+data+']')
		elif self.litem==True:
			# if we're in a list put nowiki tags around data begining with * or # so it isnt counted as nesting
			if data[0] == '*' or data[0] == '#':
			        data = '<nowiki>'+data[0]+'</nowiki>'+data[1:]
			wikitext.append(data)
		else:
			data = self.check_append(data)
			wikitext.append(data)
			
	def handle_entityref(self,data):
		data="&amp;"+data+";"
		if self.link==True:
			wikitext.append(' '+data)
		elif self.litem==True:
			wikitext.append(data)
		else:
			wikitext.append(data)
			
	def handle_charref(self,data):
		data="&amp;"+data+";"
		if self.link==True:
			wikitext.append(' '+data)
		elif self.litem==True:
			wikitext.append(data)
		else:
			wikitext.append(data)

def insertImage(word,words):
	global image 
	global imagenames
	global imageids
	global imagepath
	#there are even more ways to specify pic sources in our tiki
	if word.find('name=')!=-1:
		parts = word.split('=')
		try:
			filename = imagenames[parts[2]]
		except KeyError:
			sys.stderr.write(parts[2]+' doesn\'t exist in your image XML file and won\'t be displayed properly\n')
			filename=parts[2]
		filename = quote(filename)
		imagepath = urljoin(urljoin(sourceurl,imageurl), filename)
		if options.newImagepath != '':
			imagepath=urljoin(options.newImagepath, filename)
		words.append('<pic>'+imagepath)
	if word.find('id=')!=-1:
		parts = word.split('=')
		try:
			filename = imageids[parts[2]]
		except KeyError:
			sys.stderr.write( 'The image with ID '+parts[2]+' doesn\'t exist in your image XML file and won\'t be displayed properly\n')
			filename=parts[2]
		filename = quote(filename)
		imagepath = urljoin(urljoin(sourceurl,imageurl), filename)
		if options.newImagepath != '':
			imagepath=urljoin(options.newImagepath, filename)
		words.append('<pic>'+imagepath)
	if word.find('}')!=-1:
		bracket=word.find('}')
		if word[-1]!='}':
			if word[bracket+1]!=' ':
				word=word.replace('}','</pic> ')
			else: 
				word=word.replace('}','</pic>')
		word=word.replace('}','</pic>')
		words.append(word)
		image = False

	return words

def insertLink(word):
	global intLink
	global page
	global words
	global pages
	first=False
	#the link may be split if it contains spaces so it may be sent in parts
	brackets=word.find('((')
	if brackets != -1:
		word = word.replace('((','[[')
		page = word[brackets:]
		words.append(word[:brackets])
		if word.find('))')!=-1:
			word = word.replace('))',']]')
			end=word.find(']]')
			text = word[brackets+2:end]
			#again check the filenames to ensure case sensitivity is ok
			for file in pages:
				if file.lower()==text.lower():
					text = file
			text = '[['+text+word[end:]
			if text[-1]!='\n':
				words.append(text+' ')
			else:
				words.append(text)
			page = ''
			intLink=False

	elif word.find('))')!=-1:
		word = word.replace('))',']]')
		page = page +' '+word
		pipe = page.find('|')
		if pipe != -1:
			end=pipe
			text= page[2:pipe]
		else:
			brackets=page.find(']]')
			end=brackets
			text= page[2:brackets]
		for file in pages:
			if file.lower()==text.lower():
				page=page[:2]+file+page[end:]
		if page[-1]!='\n':
			words.append(page+' ')
		else:
			words.append(page)
		page = ''
		intLink=False
	else:
		first=False
		page = page+' '+word

parser = OptionParser()
parser.add_option("-n", "--notableofcontents",
		  action="store_true", dest="notoc", default=False, 
		  help="disable all automatic contents tables")
parser.add_option("-m", "--maxfilesize",
                  action="store", type="int", dest="max", default=1,
                  help="the maximum import file size")
parser.add_option("-j", "--newimageurl",
                  action="store", type="string", dest="newImagepath", default='',
                  help="the new location of any images (inc. trailing slash)")
parser.add_option("-i", "--imageurl",
                  action="store", type="string", dest="imageurl", default='',
                  help="the relative URL used in tiki to access images (inc. trailing slash)")
parser.add_option("-p", "--privatepages",
                  action="store", type="string", dest="privatexml", default='',
                  help="an XML file containing any private pages not to be added to the wiki")
parser.add_option("-o", "--outputfile",
                  action="store", type="string", dest="outputFile", default='',
                  help="the name of the output wiki XML file(s)")
parser.add_option("-k", "--imagexml",
                  action="store", type="string", dest="imagexml", default='',
                  help="an XML file containing metadata for the images in the tiki")

(options, args) = parser.parse_args()

# the tar file containing the tiki file export - if not specified read from stdin
#stdin doesn't work at the moment and fails after you've used extractfile as this returns nothing
if len(args)>1:
	archive = tarfile.open(args[1])
	#add all files in the export tar to the list of pages	
	pages = archive.getnames()
	if options.outputFile=='':
		outputFile= args[1].replace('.tar','.xml')
	else:
		outputFile=options.outputFile
else:
	pages=[]
	#if reading from stdin you can't iterate through the files again so pages is left empty and links are not corrected
	archive = tarfile.open(name= sys.stdin.name, mode='r|', fileobj=sys.stdin)
	#if you're reading from stdin and don't specify an output file output to stdout
	if options.outputFile=='':
		options.outputFile='-'
p = Parser()

#multiple files may be created so this is added to the output file string to identify them
fileCount=0

#the string to name all outputfiles the fileCount is added to this
if options.outputFile=='-':
	mwikixml=sys.stdout
else:
	mwikixml = open(outputFile[:-4]+str(fileCount)+outputFile[-4:], 'wb')
	sys.stderr.write('Creating new wiki xml file '+outputFile[:-4]+str(fileCount)+outputFile[-4:])

#the source URL of the tiki - in the form http://[your url]/tiki/
sourceurl = args[0]

#the relative address used to access pictures in TikiWiki
imageurl = options.imageurl

privatePages=[]
if options.privatexml !='':
	privateparse = 	minidom.parse(options.privatexml)
	rows=privateparse.getElementsByTagName('row')
	for row in rows:
		fields = row.getElementsByTagName('field')
		for field in fields:
			if field.getAttribute('name')=='pageName':
				privatePages.append(field.firstChild.data)
#fill the lookup table with the image information
#a file containing an xml dump from the tiki DB
imagenames={}
imageids={}
if options.imagexml !='':
	imagexml = options.imagexml
	lookup = minidom.parse(imagexml)

	rows = lookup.getElementsByTagName('row')
	for row in rows:
		fields = row.getElementsByTagName('field')
		for field in fields:
			if field.getAttribute('name')=='name':
				iname = field
			if field.getAttribute('name')=='filename':
				ifile = field
			if field.getAttribute('name')=='imageID':
				iid = field
		imagenames[iname.firstChild.data] = ifile.firstChild.data
		imageids[iid.firstChild.data] = ifile.firstChild.data



#list of users who have edited pages	
authors = []
filepages = {}
totalSize=0
pagecount = 0
versioncount = 0

#write mediawiki xml file
mwikixml.write('<mediawiki xml:lang="en">\n')

for member in archive:
    if member.name not in privatePages:
	#add each file in the tiki export directory
	tikifile = archive.extractfile(member)
	mimefile = p.parse(tikifile)
	mwikixml.write('<page>\n')
	partcount=0
	uploads = []

	if mimefile.is_multipart()== False:
		partcount =1
	for part in mimefile.walk():
		outputpage=''
		if partcount == 1:
			title = unquote(part.get_param('pagename'))
			outputpage = outputpage+'<title>'+title+'</title>'
		partcount+=1
		if ('application/x-tikiwiki','')in part.get_params():
			versioncount +=1
			headings =[]
			outputpage = outputpage+'<revision>\n'
			outputpage = outputpage+'<timestamp>'+time.strftime('%Y-%m-%dT%H:%M:%SZ',time.gmtime(eval(part.get_param('lastmodified'))))+'</timestamp>\n'
	        	outputpage = outputpage+'<contributor><username>'+part.get_param('author')+'</username></contributor>\n'
			# add author to list of contributors to be output at the end
			if part.get_param('author')not in authors:
				authors.append(part.get_param('author'))
			outputpage = outputpage+'<text xml:space="preserve">\n'
			mwiki = ''
			#we add the tiki description to the page in bold and italic (much as it was in tikiwiki)
			# the </br> is used to ensure that these strings are followed by a new line and are converted to \n later
			if part.get_param('description') not in(None,''):
				mwiki+="'''''"+unquote(part.get_param('description'))+"'''''</br>"
			#then add the table of contents (or specify none)
			if options.notoc: mwiki=mwiki + "__NOTOC__</br>"
			else: mwiki=mwiki + "__TOC__</br>"
			mwiki += part.get_payload().decode('utf-8')
			
			
			#does the validator do anything?!
			validate = False
			validator = HTMLChecker()
			validator.feed(mwiki)
			
			#fixes pages that end up on a single line (these were probably created by our WYSWYG editor being used on windows and linux)
			if not validate:
				mwiki=mwiki.replace('\t', '    ')
				mwiki=mwiki.replace('  ', ' &nbsp;')
				mwiki=mwiki.replace('<', '&lt;')
				mwiki=mwiki.replace('>', '&gt;')
			
				mwiki=mwiki.replace('\r\n\r\n', '<br/><br/>')
			#double escape < and > entities so that &lt; is not unescaped to < which is then treated as HTML tags
			#mwiki=mwiki.replace('&amp;', '&amp;amp;')
			mwiki=mwiki.replace('&amp;lt;', '&amp;amp;lt;')
			mwiki=mwiki.replace('&amp;gt;', '&amp;amp;gt;')
			mwiki=mwiki.replace('&lt;', '&amp;lt;')
			mwiki=mwiki.replace('&gt;', '&amp;gt;')
			mwiki=mwiki.replace(u'\ufffd', '&nbsp;') 

			# unescape XML entities
			entitydefs = dict([ ("&"+k+";", unichr(v)) for k, v in htmlentitydefs.name2codepoint.items() ])
			entitydefs.pop("&amp;")
			entitydefs.pop("&gt;")
			entitydefs.pop("&lt;")
			mwiki=saxutils.unescape(mwiki, entitydefs)

			# replace tiki syntax that will be interpreted badly with tiki syntax the parser will understand
			#empty formatting tags will be converted to many "'"s which then confuses mwiki
			mwiki = mwiki.replace('[[','~np~[~/np~')	
			#need to replace no wiki tags here in case any html/xml is inside them that we want to keep
			mwiki=mwiki.replace('~np~', '<nowiki>')
			mwiki=mwiki.replace('~/np~', '</nowiki>')
			mwiki=mwiki.replace('<em></em>', '')
			mwiki=mwiki.replace('<em><em>', '<em>')
			mwiki=mwiki.replace('</em></em>', '</em>')
			mwiki=mwiki.replace('<strong></strong>', '')
			mwiki=mwiki.replace('<strong><strong>', '<strong>')
			mwiki=mwiki.replace('</strong></strong>', '</strong>')
			mwiki=mwiki.replace('\n', ' ')
			mwiki=mwiki.replace('</br>', '\n')
			mwiki=mwiki.replace('&lt;/br&gt;', '\n')
			mwiki=mwiki.replace('\r', ' ')
			mwiki=mwiki.replace('\t', ' ')
			
			wikitext=[]
			
			#convert any HTML tags to mediawiki syntax
			htmlConverter = HTMLToMwiki()
			htmlConverter.feed(mwiki)
			
			mwiki = ''.join(wikitext)
			
			#replace tiki syntax with mwiki
			mwiki=mwiki.replace('__',"'''")
			
			#split the text into lines and then strings to parse 
			words=[]
			image=False
			intLink=False
			box=False
			page = ''
			for line in mwiki.splitlines(True):
				spl = line.split(' ')
				for word in spl:
					# handle boxes
					if word.find('^')!=-1:
						hats = word.count('^')
						for hat in range(1, hats+1):
							index = word.find('^')
							if box == False:
								word = word[:index]+'<pre>'+word[index+1:]
								box=True
							else:
								word = word[:index]+'</pre>'+word[index+1:]
								box=False							
					if word.find('{img')!= -1:
						image = True
					if word.find('((')!=-1:
						intLink = True
					if image:
						words = insertImage(word,words)
					elif intLink:
						insertLink(word)
					else:
						#stops mwiki automatically creating links (which can then be broken by formatting
						if (word.find('http')!=-1 or word.find('ftp://')!=-1) and word.find('[')==-1 and word.find(']')==-1 and word.find('<pic>')==-1 and word.find('<pre>')==-1 and word.find('</pre>')==-1 and box==False:
							index = 0
							format = False
							formatted = ''
							for char in word:
								index+=1
								if char == "'":
									if not format:
										format= True
										formatted = formatted+'</nowiki>'
								else:
									if format:
										format = False
										formatted = formatted+'<nowiki>'
							
								formatted =formatted+char
								
							word = '<nowiki>'+formatted+'</nowiki>'
						if word != '':
							if word[-1].find('\n')!=-1:	
								words.append(word)
							else:
								words.append(word+' ')
						
			mwiki = ''.join(words)
			#get rid of pic placeholder tags
			mwiki=mwiki.replace("<pic>", "")
			mwiki=mwiki.replace("</pic>", "")

			#make sure there are no single newlines - mediawiki just ignores them. Replace multiple lines with single and then single with double.
			while mwiki.find("\n\n") != -1 or mwiki.find("\n \n") != -1: 
				mwiki=mwiki.replace("\n\n", "\n")
				mwiki=mwiki.replace("\n \n", "\n")
			mwiki=mwiki.replace('\n', '\n\n')
			
			#replace multiple lines with single where they would break formatting - such as in a list
			mwiki=mwiki.replace('\n\n#', '\n#')
			mwiki=mwiki.replace('\n\n*', '\n*')
			mwiki=mwiki.replace('*<br/>', '*')
			mwiki=mwiki.replace('#<br/>', '#')
			mwiki = mwiki.lstrip('\n')

			lines=[]
			for line in mwiki.splitlines(True):
				if line.startswith(':'):
					line='<nowiki>:</nowiki>'+line[1:]
				lines.append(line)
			mwiki=''.join(lines)
			
			entitydefs = dict([ (unichr(k), "&amp;"+v+";") for k, v in htmlentitydefs.codepoint2name.items() ])
			entitydefs.pop('<')
			entitydefs.pop('>')
			entitydefs.pop('&')
			mwiki=saxutils.escape(mwiki, entitydefs)

			for n in range(len(mwiki)):
				if (mwiki[n]< " ")and(mwiki[n]!='\n')and(mwiki[n]!='\r')and(mwiki[n]!='\t'):
					mwiki=mwiki[:n]+"?"+mwiki[n+1:]

			mwiki=mwiki.replace('amp;lt;','lt;')
			mwiki=mwiki.replace('amp;gt;','gt;')

			while mwiki.find("  ") != -1: 
				mwiki=mwiki.replace("  ", " ")
			mwiki=mwiki.replace('&lt;!--','<!--')
			mwiki=mwiki.replace('--&gt;','-->')
			
			# the table of contents will have been seen as bold formatting
			if len(headings)>=3: 
				mwiki = mwiki.replace("'''TOC'''", '__TOC__')
				mwiki = mwiki.replace("'''NOTOC'''", '__NOTOC__')
			else:
				mwiki = mwiki.replace("'''TOC'''\n\n", '')
				mwiki = mwiki.replace("'''NOTOC'''\n\n", '')
				mwiki = mwiki.replace("'''TOC'''\n", '')#if it's before bullets/numbers the second \n will have gone
				mwiki = mwiki.replace("'''NOTOC'''\n", '')

			outputpage= outputpage+mwiki+'</text>\n'	
			outputpage=outputpage+'</revision>\n'
			outputpage=outputpage.encode('utf-8')
			totalSize+=len(outputpage)
			
			#mediawiki has a maximum import file size so start a new file after that limit
			if options.outputFile!='-':
				if totalSize > options.max*1024*1024:
					totalSize=len(outputpage)
					mwikixml.write('</page>')
					mwikixml.write('</mediawiki>')
					fileCount += 1
					mwikixml = open(outputFile[:-4]+str(fileCount)+outputFile[-4:], 'wb') 
					sys.stderr.write('Creating new wiki xml file '+outputFile[:-4]+str(fileCount)+outputFile[-4:]+'\n')
					mwikixml.write('<mediawiki xml:lang="en">\n')
					#if this isn't the first part write page and title
					mwikixml.write('<page>\n')
					mwikixml.write('<title>'+title+'</title>')				
				mwikixml.write(outputpage)
			else:
				mwikixml.write(outputpage)
		else:
			if partcount != 1:
				if stdout == False:
					sys.stderr.write(str(part.get_param('pagename'))+' version '+str(part.get_param('version'))+' wasn\'t counted')

	mwikixml.write('</page>')
	if uploads != []:
		filepages[title] = uploads
	pagecount+=1
mwikixml.write('</mediawiki>')
sys.stderr.write('number of pages = '+str(pagecount)+' number of versions = '+str(versioncount)+'\n')
sys.stderr.write('with contributions by '+str(authors)+'\n')
sys.stderr.write('and file uploads on these pages: '+str(filepages.keys())+'\n')